• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Cisco ccna modulo 04
 

Cisco ccna modulo 04

on

  • 2,788 views

 

Statistics

Views

Total Views
2,788
Views on SlideShare
2,788
Embed Views
0

Actions

Likes
2
Downloads
156
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Cisco ccna modulo 04 Cisco ccna modulo 04 Document Transcript

    • 2
    • 3 Módulo 01 - Escalonando endereços IP Visão Geral O rápido crescimento da Internet surpreendeu a maioria dos observadores. Uma razão para a Internet ter crescido tão rapidamente foi a flexibilidade do projeto original. Sem o desenvolvimento de novas metodologias para atribuição de endereços IP, esse rápido crescimento teria exaurido os endereços IP disponíveis. A fim de solucionar a diminuição da quantidade de endereços IP, foram desenvolvidas diversas soluções. Uma solução amplamente implementada é o NAT (Network Address Translation – Tradução de Endereços de Rede). NAT é um mecanismo que visa economizar endereços IP registrados em grandes redes e simplificar as tarefas de gerenciamento do endereçamento IP. Quando um pacote é roteado através de um dispositivo de rede, geralmente um firewall ou roteador de borda, o endereço IP de origem é traduzido de um endereço privado interno da rede para um endereço IP público roteável. Isso permite que o pacote seja transportado por redes externas públicas, tais como a Internet. Em seguida, o endereço público da resposta é retraduzido para o endereço interno privado, para entrega dentro da rede interna. Uma variação do NAT, chamada de PAT (Port Address Translation – Tradução de Endereços de Portas), permite que vários endereços privados internos sejam traduzidos usando um único endereço público externo. Geralmente, os roteadores, servidores e outros dispositivos importantes da rede exigem uma configuração de IP estático, que é inserida manualmente. Entretanto, os clientes desktop não exigem um endereço específico, mas sim qualquer endereço de um intervalo de endereços. Normalmente, esse intervalo está dentro de uma sub-rede IP. Uma estação de trabalho dentro de uma sub-rede específica pode receber qualquer endereço de um intervalo, enquanto outros valores são estáticos, como a máscara da sub-rede, o gateway padrão e o servidor DNS. O DHCP (Dynamic Host Configuration Protocol – Protocolo para Configuração Dinâmica de Hosts) foi projetado para atribuir dinamicamente endereços IP e outras informações importantes de configuração da rede. Como os clientes desktop geralmente constituem a grande maioria dos nós de uma rede, o DHCP é uma ferramenta extremamente útil para poupar o tempo dos administradores da rede. Ao concluírem este módulo, os alunos deverão ser capazes de: • Identificar endereços IP privados, conforme descrito na RFC 1918; • Discutir características do NAT e do PAT; • Explicar as vantagens do NAT; • Explicar como configurar o NAT e o PAT, incluindo tradução estática, tradução dinâmica e overloading; • Identificar os comandos usados para verificar a configuração do NAT e do PAT; • Listar as etapas usadas para solucionar problemas de configuração do NAT e do PAT; • Discutir as vantagens e desvantagens do NAT; • Descrever as características do DHCP; • Explicar as diferenças entre BOOTP e DHCP; • Explicar o processo de configuração do cliente DHCP; • Configurar um servidor DHCP; • Verificar a operação do DHCP; • Solucionar problemas de uma configuração DHCP; • Explicar as solicitações de DHCP relay.
    • 4 1.1 Escalonando redes com NAT e PAT 1.1.1 Endereçamento privado A RFC 1918 reserva os três blocos de endereços IP privados a seguir: • 1 endereço de classe A; • 16 endereços de classe B; • 256 endereços de classe C. Esses endereços são apenas para uso de redes internas privadas. Pacotes que contenham esses endereços não são roteados pela Internet. Os endereços públicos da Internet devem ser registrados por organizações que têm a autoridade para a distribuição e registro de números IP na Internet, como por exemplo, a ARIN (American Registry for Internet Numbers) ou a RIPE (Réseaux IP Européens), registro regional da Internet responsável pela Europa e norte da África. Esses endereços públicos da Internet também podem ser alugados de um provedor de serviços Internet (ISP). Os endereços IP privados são reservados e podem ser usados por qualquer pessoa. Isso significa que duas redes, ou dois milhões de redes, podem usar os mesmos endereços privados. Um roteador nunca deve rotear os endereços da RFC 1918. Geralmente, os provedores de serviço Internet (ISP) configuram os roteadores de borda, para evitar o encaminhamento do tráfego endereçado a redes que utilizam estes endereços. O uso de NAT fornece ótimas vantagens para as empresas e para a Internet. Antes do NAT, um host com endereço privado não podia acessar a Internet. Assim, cada empresa pode endereçar alguns ou todos os seus hosts com endereços privados e usar o NAT para fornecer acesso à Internet. 1.1.2 Introdução ao NAT e ao PAT O NAT foi projetado para economizar endereços IP e permitir que as redes usem endereços IP privados em redes internas. Esses endereços privados internos são traduzidos em endereços públicos roteáveis. Isso é obtido por dispositivos de interconexão de redes que executam um software NAT, que aumenta a privacidade da rede, ocultando os endereços IP internos. Um dispositivo habilitado para NAT geralmente opera na borda de uma rede stub. Uma rede stub é uma rede que tem uma única conexão para a rede externa.
    • 5 Quando um host dentro da rede stub quer transmitir para um host fora dela, ele encaminha o pacote para o roteador do gateway de borda. O roteador do gateway de borda realiza o processo NAT, traduzindo o endereço privado interno de um host em um endereço público externo roteável. Na terminologia NAT, rede interna é o conjunto de redes sujeitas a tradução. A rede externa refere-se a todos os outros endereços. A Cisco define os seguintes termos NAT:
    • 6 • Endereço local interno (Inside local address) – Endereço IP atribuído a um host da rede interna. Geralmente, o endereço não é um endereço IP atribuído pelo InterNIC (Network Information Center) nem pelo provedor de serviço. Provavelmente, esse endereço é um dos endereços privados especificados na RFC 1918. • Endereço global interno (Inside global address) – Um endereço IP legítimo atribuído pelo InterNIC ou pelo provedor de serviço e que representa um ou mais endereços IP locais internos para o mundo exterior. • Endereço local externo (Inside local address) – Endereço IP de um host externo, tal como é conhecido pelos hosts da rede interna. • Endereço global externo (Outside global address) – Endereço IP atribuído a um host da rede externa. O proprietário do host atribui esse endereço. 1.1.3 Principais recursos do NAT e do PAT As traduções NAT podem ser usadas para inúmeras finalidades e podem ser atribuídas tanto de maneira dinâmica como estática. O NAT estáticoa foi projetado para permitir o mapeamento dos endereços locais e endereços globais.. Isso é particularmente útil para hosts que precisam ter um endereço consistente, acessível a partir da Internet. Esses hosts internos podem ser servidores corporativos ou dispositivos de rede. O NAT dinâmico foi projetado para mapear um endereço IP privado para um endereço público. Qualquer endereço IP de um pool de endereços IP públicos é atribuído a um host da rede. Com o mecanismo de overloading, ou PAT (Port Address Translation – Tradução de Endereços de Portas), Vários endereços privados podem ser mapeados para um único endereço público, porque cada endereço privado é rastreado por um número de porta. O PAT usa números de porta de origem exclusivos no endereço IP global interno, para distinguir cada uma das traduções.
    • 7 O número da porta é codificado em 16 bits. O número total de endereços internos que podem ser traduzidos para um endereço externo poderia ser, teoricamente, até 65.536 por endereço IP. Na realidade, a quantidade de portas que podem receber um único endereço IP fica em torno de 4.000. O PAT tenta preservar a porta de origem. Se essa porta de origem já estiver em uso, o PAT atribui o primeiro número de porta disponível, a partir do início do grupo de portas apropriado 0-511, 512-1023 ou 1024-65535. Quando não há mais portas disponíveis e há mais de um endereço IP externo configurado, o PAT passa para o próximo endereço IP, para tentar alocar novamente a porta de origem. Esse processo continua até que não haja mais portas disponíveis nem endereços IP externos. O uso de NAT oferece as seguintes vantagens: • Elimina a necessidade de atribuir um novo endereço IP a cada host quando se muda para um novo provedor de serviços Internet (ISP). Elimina a necessidade de endereçar novamente todos os hosts que exigem acesso externo, economizando tempo e dinheiro. • Economiza endereços, pela aplicação de multiplexação no nível das portas. Com o uso de PAT, os hosts internos podem compartilhar um único endereço IP público para toda comunicação externa. Nesse tipo de configuração, são necessários pouquíssimos endereços externos para suportar muitos hosts internos, economizando, assim, endereços IP. • Protege a segurança da rede. Como as redes privadas não anunciam seus endereços nem sua topologia interna, elas permanecem razoavelmente seguras quando usadas em conjunto com o uso de NAT para obter acesso externo controlado. 1.1.4 Configurando NAT e PAT Tradução estática Para configurar a tradução estática de endereços de origem internos, execute as tarefas das figuras.
    • 8 A figura abaixo mostra o uso da tradução NAT estática. O roteador traduz pacotes do host 10.1.1.2 para um endereço de origem 192.168.1.2.
    • 9 Tradução dinâmica Para configurar a tradução dinâmica de endereços de origem internos, execute as tarefas da figura abaixo.
    • 10 A lista de acesso deve permitir somente os endereços a serem traduzidos. Lembre-se de que há um "deny all" implícito no final de cada lista de acesso. Uma lista de acesso que seja muito permissiva pode causar resultados imprevisíveis. A Cisco recomenda que as listas de acesso referenciadas pelos comandos NAT não sejam configuradas com o comando permit any. A utilização de permit any pode fazer com que o NAT consuma muitos recursos do roteador, causando problemas na rede.
    • 11 A figura acima traduz todos os endereços de origem que passam pela lista de acesso 1, com endereço de origem 10.1.0.0/24, em um endereço do pool chamado nat-pool1. O pool contém endereços de 179.9.8.80/24 a 179.9.8.95/24. OBSERVAÇÃO: NAT não traduzirá o host 10.1.1.2, pois ele não tem permissão para ser traduzido, segundo a lista de acesso. Overloading Overloading é configurado de duas maneiras, dependendo da forma como os endereços IP públicos foram alocados. Um provedor de serviços Internet (ISP) pode alocar somente um endereço IP público para uma rede, o qual geralmente é atribuído à interface externa que se conecta ao provedor. A figura abaixo mostra como configurar a sobrecarga nessa situação.
    • 12 Outra maneira de configurar overloading é se o provedor de serviços Internet tiver disponibilizado um ou mais endereços IP públicos para uso como pool NAT. Esse pool pode ser sobrecarregado conforme mostrado na configuração da figura. A figura abaixo mostra um exemplo de configuração PAT.
    • 13 1.1.5 Verificando configurações PAT Uma vez configurado o NAT, use os comandos clear e show para verificar se ele está operando conforme o esperado. Por padrão, as traduções dinâmicas de endereços saem da tabela de traduções NAT depois de excedido um limite de tempo em que não são utilizadas. Quando a tradução de portas (PAT) não está configurada, as entradas de tradução expiram após 24 horas, a menos que os temporizadores sejam reconfigurados com o comando ip nat translation timeout timeout_seconds no modo de configuração global. Limpe as entradas antes do tempo de expiração, usando um dos comandos da figura.
    • 14 As informações de tradução podem ser exibidas realizando-se uma das tarefas do modo EXEC.
    • 15 Uma alternativa é usar o comando show run e procurar os comandos de NAT, lista de acesso, interface ou pool com os valores exigidos. 1.1.6 Solucionando problemas em configurações NAT e PATAT Quando há problemas de conectividade IP em um ambiente NAT, geralmente é difícil determinar suas causas. Muitas vezes, culpa-se o NAT indevidamente, quando, na verdade, existe um outro problema. Ao tentar determinar a causa de um problema de conectividade IP, é importante eliminar o NAT. Siga as seguintes etapas para determinar se o NAT está operando conforme o esperado: 1. Com base na configuração, defina claramente o que o NAT deve realizar. 2. Verifique se as traduções corretas estão presentes na tabela de tradução. 3. Verifique se a tradução está ocorrendo, usando os comandos show e debug. 4. Examine em detalhe o que está ocorrendo com o pacote e verifique se os roteadores têm as informações corretas de roteamento para levar o pacote adiante. Use o comando debug ip nat para verificar a operação do recurso NAT, exibindo informações sobre cada pacote que está sendo traduzido pelo roteador. O comando debug ip nat detailed gera uma descrição de cada pacote considerado para tradução. Esse comando também exibe informações sobre certos erros ou condições de exceção, tais como a impossibilidade de alocar um endereço global. A figura mostra um exemplo da saída do comando debug ip nat. Nesse exemplo, as duas primeiras linhas da saída da depuração mostram que foram produzidas uma requisiçãorequisição e uma resposta de DNS (Domain Name System – Sistema de Nomes de Domínio). As outras linhas mostram a saída da depuração de uma conexão Telnet de um host no interior da rede para um host no exterior da rede. Decodifique a saída de debug usando os pontos-chave a seguir:
    • 16 • O asterisco ao lado da palavra NAT indica que a tradução está ocorrendo em um caminho com comutação mais rapida (fast-switch). O primeiro pacote de uma conversa sempre passa por um caminho com comutação mais lenta, o que significa que o primeiro pacote é comutado utilizando process-switch. Os outros pacotes passam com comutação fast-switch, se houver uma entrada no cache. • s = a.b.c.dé o endereço de origem. • O endereço de origem a.b.c.d é traduzido em w.x.y.z. • d = e.f.g.h é o endereço de destino. • O valor entre parênteses é o número de identificação IP. Essas informações podem ser úteis para depuração. Elas são úteis, por exemplo, porque permitem correlacioná-las com pacotes capturados por outros analisadores de protocolos. 1.1.7 Problemas no uso de NAT O NAT tem diversas vantagens, dentre as quais: • Economiza o esquema de endereçamento legalmente registrado, permitindo a privatização das intranets. • Aumenta a flexibilidade das conexões à rede pública. Pools múltiplos, pools de backup e pools de balanceamento de carga podem ser implementados para garantir conexões de rede pública confiáveis. • Consistência do esquema de endereçamento da rede interna. Em uma rede sem endereços IP privados e NAT, a alteração de endereços IP públicos exige a renumeração de todos os hosts da rede existente. Os custos para renumerar os hosts podem ser significativos. O NAT permite manter o esquema existente e suportar um novo esquema de endereçamento público. Mas o NAT também tem desvantagens. Ativar a tradução de endereços causa perda de funcionalidade, particularmente com qualquer protocolo ou aplicação que envolva o envio de informações de endereço IP dentro do payload IP. Isso exige um suporte adicional do dispositivo NAT. O NAT aumenta o atraso. Surgem atrasos na comutação de caminhos devido à tradução de cada endereço IP dentro dos cabeçalhos dos pacotes. O primeiro pacote sempre passa pelo caminho de comutação mais lenta, o que significa que o primeiro pacote é comutado utilizando process-switch. Os outros pacotes passam pelo caminho com comutação mais rápida (fast- switch), se houver uma entrada no cache. O desempenho pode ser outra preocupação, porque NAT é efetuado atualmente utilizando comutação process-switch. A CPU precisa olhar cada pacote para decidir se deve traduzi-lo. Ela precisa alterar o cabeçalho IP e, possivelmente, o cabeçalho TCP. Uma desvantagem significativa da implementação e utilização do NAT é a perda da rastreabilidade IP ponta-a-ponta. Torna-se muito mais difícil rastrear pacotes que passam por diversas alterações de endereço ao longo dos vários saltos do NAT. Se algum hacker quiser determinar a origem de um pacote, terá dificuldade em rastrear ou obter o endereço inicial da origem ou do destino. O NAT também força alguns aplicativos que usam endereçamento IP a pararem de funcionar, porque oculta os endereços IP ponta-a-ponta. Os aplicativos que usam endereços físicos em
    • 17 vez de um nome de domínio qualificado não alcançam os destinos traduzidos através do roteador NAT. Às vezes, esse problema pode ser evitado através da implementação de mapeamentos NAT estáticos. O NAT do Cisco IOS suporta os seguintes tipos de tráfego: • ICMP; • FTP (File Transfer Protocol – Protocolo de Transferência de Arquivos), incluindo os comandos PORT e PASV; • NetBIOS sobre TCP/IP, serviços de datagrama, de nome e de sessão; • RealAudio da RealNetworks; • CUSeeMe da White Pines; • StreamWorks da Xing Technologies; • Consultas "A" e "PTR" do DNS; • H.323/Microsoft NetMeeting, IOS versões 12.0(1)/12.0(1)T e posteriores; • VDOLive da VDOnet, IOS versões 11.3(4)11.3(4)T e posteriores; • Web Theater da VXtreme, IOS versões 11.3(4)11.3(4)T e posteriores; • Multicast IP, IOS versão 12.0(1)T, somente com tradução do endereço de origem; O NAT do Cisco IOS não suporta os seguintes tipos de tráfego: • Atualizações de tabelas de roteamento; • Transferências de zonas DNS; • BOOTP; • Protocolos talk e ntalk; • SNMP (Simple Network Management Protocol – Protocolo Simples de Gerenciamento de Redes). 1.2 DHCP 1.2.1 Introdução ao DHCP O DHCP (Dynamic Host Configuration Protocol – Protocolo para Configuração Dinâmica de Hosts) funciona em modo cliente/servidor. O DHCP permite que os clientes DHCP de uma rede IP obtenham suas configurações de um servidor DHCP. Quando se utiliza o DHCP, o trabalho de gerenciamento de uma rede IP é menor. A opção de configuração mais significativa que um cliente recebe do servidor é seu endereço IP. O protocolo DHCP está descrito na RFC 2131. A maioria dos sistemas operacionais modernos inclui um cliente DHCP, como é o caso dos vários sistemas operacionais Windows, Novell Netware, Sun Solaris, Linux e MAC OS. O cliente solicita valores de endereçamento ao servidor DHCP da rede.
    • 18 Esse servidor gerencia a alocação de endereços IP e responde às solicitações de configuração dos clientes. O servidor DHCP pode responder às solicitações de várias sub-redes. O DHCP não foi previsto para configurar roteadores, comutadores e servidores. Esses tipos de hosts precisam de endereços IP estáticos. A função do DHCP é fornecer um processo para um servidor alocar informações IP aos clientes. Os clientes alugam as informações do servidor por um período definido administrativamente. Quando o aluguel (lease) expira, o cliente precisa pedir outro endereço, embora geralmente receba o mesmo endereço novamente. Normalmente, os administradores preferem que um servidor da rede ofereça serviços DHCP, pois essas soluções são escalonáveis e relativamente fáceis de gerenciar. Os roteadores Cisco podem utilizar um conjunto de recursos do Cisco IOS, o Easy IP, para oferecer um servidor DHCP opcional completo. Por padrão, o Easy IP aluga as configurações por 24 horas. Isso é útil em escritórios pequenos ou domésticos, em que o usuário pode tirar proveito do DHCP e do NAT sem ter um servidor NT ou UNIX. Os administradores configuram os servidores DHCP para atribuir endereços a partir de pools predefinidos. Os servidores DHCP também podem oferecer outras informações, tais como endereços de servidores DNS e WINS e nomes de domínios. A maioria dos servidores DHCP também permite que o administrador defina especificamente quais endereços MAC clientes podem ser servidos e atribuir-lhes automaticamente o mesmo endereço IP todas as vezes. O DHCP usa o UDP (User Datagram Protocol – Protocolo de Datagrama de Usuário) como protocolo de transporte. O cliente envia mensagens para o servidor na porta 67. O servidor envia mensagens para o cliente na porta 68.
    • 19 1.2.2 Diferenças entre BOOTP e DHCP Inicialmente, a comunidade Internet desenvolveu o protocolo BOOTP para ativar a configuração de estações de trabalho sem disco. O BOOTP foi definido originalmente na RFC 951 em 1985. Como antecessor do DHCP, o BOOTP tem algumas características operacionais semelhantes. Os dois protocolos baseiam-se em uma estrutura cliente/servidor e usam as portas UDP 67 e 68. Essas portas ainda são conhecidas como portas BOOTP. Os quatro parâmetros básicos do IP são: • Endereço IP; • Endereço do gateway; • Máscara de sub-rede; • Endereço do servidor DNS. O BOOTP não aloca endereços IP dinamicamente a um host. Quando um cliente solicita um endereço IP, o servidor BOOTP procura em uma tabela predefinida uma entrada que corresponda ao endereço MAC do cliente. Se houver uma entrada, o endereço IP correspondente é devolvido ao cliente. Isso significa que a vinculação entre o endereço MAC e o endereço IP já deve ter sido configurada no servidor BOOTP. Há duas diferenças principais entre o DHCP e o BOOTP: • O DHCP define mecanismos através dos quais os clientes podem receber um endereço IP alugado (em lease) por um período de tempo finito. Esse período de aluguel (lease) permite que o endereço IP seja atribuído a outro cliente posteriormente ou que o cliente receba outro endereço caso se mude para outra sub-rede. Os clientes também podem renovar o aluguel (lease) e manter o mesmo endereço IP. • O DHCP fornece o mecanismo para que um cliente reúna outros parâmetros de configuração IP, tais como WINS e nome de domínio. 1.2.3 Principais recursos do DHCP Existem três mecanismos que são usados para atribuir um endereço IP ao cliente. • Alocação automática – O DHCP atribui um endereço IP permanente ao cliente. • Alocação manual – O administrador atribui o endereço IP ao cliente. O DHCP informa o endereço ao cliente. • Alocação dinâmica – O DHCP atribui, ou aluga, um endereço IP ao cliente por um período de tempo limitado. O enfoque desta seção é o mecanismo de alocação dinâmica. Alguns dos parâmetros de configuração disponíveis estão listados na RFC 1533 do IETF: • Máscara de sub-rede; • Roteador; • Nome de domínio; • Servidor(es) de nomes de domínio (DNS);
    • 20 • Servidor(es) WINS. O servidor DHCP cria pools de endereços IP e parâmetros associados. Os pools são dedicados a uma sub-rede IP lógica individual. Isso permite que vários servidores DHCP respondam e que os clientes IP sejam móveis. Se vários servidores responderem, o cliente pode escolher somente um deles. 1.2.4 Operação do DHCP O processo de configuração do cliente DHCP segue as seguintes etapas:
    • 21 1. Um cliente precisa estar configurado para DHCP ao iniciar o processo de associação a uma rede. O cliente envia uma requisiçãorequisição a um servidor pedindo uma configuração IP. Em algumas situações o cliente pode sugerir o endereço IP desejado, por exemplo, ao solicitar uma prorrogação de um aluguel (lease) do DHCP. O cliente localiza um servidor DHCP, enviando um broadcast chamado DHCPDISCOVER. 2. Quando o servidor recebe o broadcast, ele determina se pode atender à requisição a partir de seu próprio banco de dados. Se não puder, ele encaminha a requisição a outro servidor DHCP. Se puder atender à requisição, o servidor DHCP oferece ao cliente informações de configuração IP na forma de um DHCPOFFER unicast. O DHCPOFFER é uma proposta de configuração que pode incluir endereço IP, endereço de servidor DNS e tempo de aluguel (lease). 3. Se o cliente considera a oferta aceitável, ele envia outro broadcast, um DHCPREQUEST, solicitando especificamente esses determinados parâmetros IP. Por que o cliente envia a requisição por broadcast e não por unicast ao servidor? Ele usa um broadcast porque a primeira mensagem, DHCPDISCOVER, pode ter alcançado mais de um servidor DHCP. Se mais de um servidor tiver feito sua oferta, a DHCPREQUEST enviada por broadcast permite que os outros servidores saibam qual delas foi aceita. Geralmente, a oferta aceita é a primeira que foi recebida. 4. O servidor que recebe a DHCPREQUEST oficializa a configuração, enviando uma confirmação por unicast, a DHCPACK. É possível, mas muito improvável, que o servidor não envie a DHCPACK. Isso pode ocorrer se o servidor tiver alugado as mesmas informações a outro cliente nesse ínterim. O recebimento da mensagem DHCPACK permite que o cliente comece a usar imediatamente o endereço atribuído. 5. Se o cliente detecta que o endereço já está em uso no segmento local, ele envia uma mensagem DHCPDECLINE e o processo é reiniciado. Se o cliente tiver recebido uma DHCPNACK do servidor depois de enviar a DHCPREQUEST, ele inicia o processo novamente. 6. Se o cliente não precisa mais do endereço IP, ele envia uma mensagem DHCPRELEASE ao servidor. Dependendo das diretrizes adotadas por uma organização, pode ser permitido que um usuário ou um administrador atribua endereços IP estáticos a um host, com a possibilidade de utilizar um endereço IP que já pertença ao pool de endereços utilizado nos servidores DHCP. Por precaução, o servidor DHCP do Cisco IOS sempre confirma se um endereço não está em uso antes de oferecê-lo a um cliente. O servidor emite um ICMP echo request, ou ping, para um endereço do pool antes de enviar o DHCPOFFER a um cliente. Embora configurável, a quantidade padrão de pings usada para verificar um possível conflito de endereços IP é 2.
    • 22 1.2.5 Configurando o DHCP Como no caso do NAT, um servidor DHCP requer que o administrador defina um pool de endereços. O comando ip dhcp pool define quais endereços serão atribuídos aos hosts. O primeiro comando, ip dhcp pool, cria um pool com o nome especificado e coloca o roteador em um modo especializado de configuração do DHCP. Nesse modo, use a declaração network para definir o intervalo de endereços a serem alugados. Se for necessário excluir endereços específicos da rede, volte ao modo configuração global. O comando ip dhcp excluded-address configura o roteador para excluir um determinado endereço ou intervalo de endereços ao atribuir endereços aos clientes. O comando ip dhcp excluded-address pode ser usado para reservar endereços que estão atribuídos estaticamente aos hosts principais, como por exemplo, o endereço da interface do roteador. Geralmente, um servidor DHCP é configurado para atribuir muito mais do que um endereço IP. Outros valores de configuração IP, tais como o gateway padrão, podem ser definidos a partir do modo de configuração do DHCP. O comando default-router define o gateway padrão. Também é possível configurar o endereço do servidor DNS, dns-server, e do servidor WINS, netbios-name-server. O servidor DHCP do IOS pode configurar clientes com praticamente qualquer informação de TCP/IP. Uma lista dos principais comandos do servidor DHCP do IOS inseridos no modo de configuração do pool DHCP estão mostrados na figura.
    • 23 O serviço DHCP é ativado por padrão nas versões do Cisco IOS que o suportam. Para desativar o serviço, use o comando no service dhcp. Use o comando de configuração global service dhcp para reativar o processo do servidor DHCP. 1.2.6 Verificando a operação do DHCP Para verificar a operação do DHCP, pode-se usar o comando show ip dhcp binding. Ele exibe uma lista de todas as associações criadas pelo serviço DHCP. Para verificar se as mensagens estão sendo recebidas ou enviadas pelo roteador, use o comando show ip dhcp server statistics. Ele exibe informações sobre a quantidade de mensagens DHCP que foram enviadas e recebidas. 1.2.7 Solucionando problemas do DHCP Para solucionar problemas com a operação do servidor DHCP, pode-se usar o comando debug ip dhcp server events. Esse comando mostra que o servidor verifica periodicamente se algum aluguel (lease) expirou. Também são exibidos os processos de devolução e alocação de endereços.
    • 24 1.2.8 DHCP relay Os clientes DHCP usam broadcasts IP para encontrar o servidor DHCP do segmento. O que acontece quando o servidor e o cliente não estão no mesmo segmento e estão separados por um roteador? Os roteadores não encaminham esses broadcasts. O DHCP não é o único serviço essencial que usa broadcasts. Os roteadores Cisco e outros dispositivos podem usar broadcasts para localizar servidores TFTP. Alguns clientes podem precisar enviar um broadcast para localizar um servidor TACACS. Um servidor TACACS é um servidor de segurança. Normalmente, em uma rede hierárquica complexa, nem todos os clientes residem na mesma sub-rede que os servidores principais. Tais clientes remotos enviam broadcasts para localizar esses servidores. Entretanto, os roteadores, por padrão, não encaminham os broadcasts dos clientes além de suas sub-redes. Como alguns clientes não podem ser utilizados se não houver alguns serviços na rede, tais como o DHCP, deve-se implementar uma das duas opções: ou o administrador coloca servidores em todas as sub-redes ou usa o recurso helper-address do Cisco IOS. A execução de serviços, tais como DHCP ou DNS, em diversos computadores, cria sobrecarga e dificuldades administrativas, tornando a primeira opção ineficiente. Quando possível, os administradores devem usar o comando ip helper-address para retransmitir as solicitações de broadcast para esses importantes serviços UDP. Usando o recurso de helper-address, um roteador pode ser configurado para aceitar uma requisição de broadcast para um serviço UDP e encaminhá-la como unicast a um endereço IP específico. Por padrão, o comando ip helper-address encaminha oito serviços UDP a seguir: • Time; • TACACS; • DNS; • Servidor BOOTP/DHCP; • Cliente BOOTP/DHCP; • TFTP; • Serviço de nomes NetBIOS; • Serviço de datagramas NetBIOS. No caso específico do DHCP, um cliente envia um pacote brodcast de DHCPDISCOVER em seu segmento de rede local.
    • 25 Esse pacote é capturado pelo gateway. Se houver um helper address configurado, o pacote DHCP é encaminhado para o endereço especificado. Antes de encaminhar o pacote, o roteador preenche o campo GIADDR do pacote com o endereço IP do roteador daquele segmento. Esse endereço será, então, o endereço do gateway do cliente DHCP, quando ele receber o endereço IP. O servidor DHCP recebe o pacote DISCOVER. O servidor usa o campo GIADDR como um índice na lista de pools de endereços em busca de um que tenha o endereço do gateway definido com o endereço que está em GIADDR. Em seguida, esse pool é usado para fornecer ao cliente seu endereço IP.
    • 26 Resumo Devem ter sido compreendidos os importantes conceitos a seguir: • Os endereços privados são para uso privado e interno, e nunca devem ser roteados por um roteador da Internet pública. • O NAT altera o cabeçalho IP de um pacote, para que o endereço de destino, o endereço de origem ou ambos sejam substituídos por outros endereços. • O PAT usa números de porta de origem exclusivos no endereço IP global interno, para distinguir entre as traduções.
    • 27 • As traduções NAT podem ocorrer de maneira dinâmica ou estática e podem ser usadas para diversas finalidades. • PAT e NAT podem ser configurados para tradução estática, dinâmica e para overload. • O processo de verificação da configuração do NAT e do PAT inclui os comandos clear e show. • O comando debug ip nat é usado para solucionar problemas de configuração do NAT e do PAT. • O NAT tem vantagens e desvantagens. • O DHCP funciona em modo cliente/servidor, permitindo que os clientes obtenham configurações IP de um servidor DHCP. • O BOOTP é o antecessor do DHCP e ambos têm algumas características operacionais em comum, mas o BOOTP não é dinâmico. • Um servidor DHCP gerencia pools de endereços IP e parâmetros associados. Cada pool destina-se a uma sub-rede IP lógica individual. • O processo de configuração do cliente DHCP tem quatro etapas. • Geralmente, um servidor DHCP é configurado para fazer mais do que atribuir endereços IP. • O comando show ip dhcp binding é usado para verificar a operação do DHCP. • O comando debug ip dhcp server events é usado para solucionar problemas do DHCP. • Quando um servidor e um cliente DHCP não estão no mesmo segmento e estão separados por um roteador, usa-se o comando ip helper-address para retransmitir as solicitações de broadcast. Módulo 02 - Tecnologias WAN
    • 28 Visão Geral Quando uma empresa cresce e passa a ter instalações em várias localidades, é necessário interconectar as redes locais das várias filiais para formar uma rede de longa distância (WAN). Este módulo examina algumas das opções disponíveis para essas interconexões, o hardware necessário para implementá-las e a terminologia usada para discuti-las. Há muitas opções disponíveis hoje em dia para implementar soluções WAN. Elas diferem em termos de tecnologia, velocidade e custo. Familiarizar-se com essas tecnologias é uma peça importante do projeto e da avaliação da rede. Se todo o tráfego de dados de uma empresa está dentro de um único edifício, uma rede local atende às necessidades dessa empresa. Prédios podem ser interconectados com enlaces de dados de alta velocidade para formar uma rede local no campus (Campus LAN), se os dados precisam fluir entre prédios localizados em um único campus. Entretanto, é necessário usar uma WAN para transportar dados que precisem ser transferidos entre locais geográficos distantes. O acesso remoto individual à rede local e a conexão da rede local à Internet são tópicos de estudos independentes e não serão tratados aqui. A maioria dos alunos não terá a oportunidade de projetar uma nova WAN, mas muitos participarão de projetos de melhoria e atualização de WANs existentes e poderão aplicar as técnicas aprendidas neste módulo. Ao concluírem este módulo, os alunos deverão ser capazes de: • Fazer distinção entre uma rede local e uma WAN; • Identificar os dispositivos usados em uma WAN; • Listar os padrões WAN; • Descrever o encapsulamento da WAN; • Classificar as várias opções de enlaces WAN; • Fazer distinção entre as tecnologias WAN comutadas por pacotes e comutadas por circuito; • Comparar e diferenciar as tecnologias WAN atuais; • Descrever os equipamentos envolvidos na implementação de vários serviços WAN; • Recomendar um serviço WAN a uma organização com base em suas necessidades; • Descrever os princípios básicos da conectividade DSL e cable modem; • Descrever um procedimento metódico para o projeto de WANs; • Comparar e diferenciar as topologias WAN; • Comparar e diferenciar os modelos de projeto WAN; • Recomendar um projeto WAN a uma organização com base em suas necessidades. 2.1 Visão geral das tecnologias WAN 2.1.1 Tecnologia WAN Uma WAN é uma rede de comunicações de dados que opera além da abrangência geográfica de uma rede local. Uma das principais diferenças entre uma WAN e uma rede local é que uma empresa ou organização precisa ser assinante de um provedor de serviços WAN para poder usar os serviços de rede da operadora. Uma WAN usa os enlaces de dados fornecidos pelas operadoras para prover o acesso à Internet, a conexão entre as diversas localidades de uma organização e a conexão com as redes de outras organizações, possibilitando ainda, a oferta de serviços externos e o acesso de usuários remotos. WANs geralmente transportam vários tipos de tráfego, como voz, dados e vídeo. Os serviços telefônicos e de dados são os serviços WAN mais comumente usados. Os dispositivos que ficam nas instalações do assinante são chamados CPE (customer premises equipment).
    • 29 O assinante é dono do CPE ou o aluga do provedor de serviços. Um cabo de cobre ou fibra conecta o CPE à central da operadora (CO – Central Office). Esse cabeamento geralmente é chamado de loop local ou "last mile". Uma chamada discada é conectada a outros loops locais na mesma região através da própria central da operadora, ou a outros em regiões mais distantes através de um tronco com uma central principal. Em seguida, ela vai até uma central seccional e segue para uma central regional ou internacional da operadora, ao longo do trajeto até seu destino. Para que o loop local transporte dados, é necessário um dispositivo (por exemplo, um modem) que prepare os dados para transmissão. Os dispositivos que colocam dados no loop local são chamados de equipamentos de terminação do circuito de dados, ou equipamentos de comunicações de dados (DCE – Data Communications Equipment). Os dispositivos do cliente que passam os dados para o DCE são chamados de equipamentos terminais de dados (DTE – Data terminal Equipment).
    • 30 A principal função do DCE é fornecer ao DTE uma interface com o enlace de comunicação que o conecta à nuvem WAN. A interface DTE/DCE usa vários protocolos de camada física, tais como HSSI (High-Speed Serial Interface – Interface Serial de Alta Velocidade) e V.35. Esses protocolos estabelecem os códigos e os parâmetros elétricos usados pelos dispositivos para se comunicarem. Os enlaces WAN são fornecidos em diversas velocidades, medidas em bits por segundo (bps), quilobits por segundo (kbps ou 1000 bps), megabits por segundo (Mbps ou 1000 kbps) ou gigabits por segundo (Gbps ou 1000 Mbps). Geralmente, os valores bps são full duplex. Isso significa que uma linha E1 pode transportar 2 Mbps ou que uma linha T1 pode transportar 1,5 Mbps em cada direção ao mesmo tempo.
    • 31 2.1.2 Dispositivos WAN WANs são grupos de redes locais conectadas entre si com enlaces de comunicação de um provedor de serviços. Como os enlaces de comunicação não podem ser conectados diretamente à rede local, é necessário identificar os diversos equipamentos de interfaceamento. Os computadores baseados na rede local que tenham dados a transmitir enviam os dados a um roteador que contém tanto interfaces de rede local quanto de WAN.
    • 32 O roteador usa as informações de endereço da camada 3 para entregar os dados na interface WAN adequada. Os roteadores são dispositivos de rede ativos e inteligentes, podendo, assim, participar do gerenciamento da rede. Os roteadores gerenciam as redes fornecendo controle dinâmico sobre os recursos e suportando as tarefas e os objetivos das mesmas. Alguns desses objetivos são: conectividade, desempenho confiável, controle de gerenciamento e flexibilidade. O enlace de comunicação precisa dos sinais em um formato apropriado. Para linhas digitais, são necessárias uma unidade de serviço de canal (CSU) e uma unidade de serviço de dados (DSU). Geralmente, as duas são combinadas em um único equipamento, chamado CSU/DSU. O CSU/DSU também pode ser integrado à placa da interface do roteador. Se o loop local for analógico em vez de digital, é necessário um modem.
    • 33 Os modems transmitem dados através das linhas telefônicas de voz, modulando e demodulando o sinal. Os sinais digitais são superpostos em um sinal de voz analógico, que é modulado para transmissão. O sinal modulado pode ser ouvido como uma série de assobios se o alto-falante interno do modem for ligado. Na ponta receptora, os sinais analógicos são transformados novamente em sua forma digital, ou demodulados. Quando se usa ISDN como enlace de comunicação, todos os equipamentos conectados ao barramento ISDN devem ser compatíveis com essa tecnologia. Geralmente, a compatibilidade está integrada à interface do computador, para conexões discadas diretas, ou à interface do roteador, para conexões de rede local para WAN. Equipamentos mais antigos sem interface ISDN precisam de um adaptador de terminal ISDN para ter compatibilidade com essa tecnologia. Os servidores de comunicação concentram as comunicações dos usuários por discagem de entrada e o acesso remoto a uma rede local. Podem ter um misto de interfaces analógicas e digitais (ISDN) e suportar centenas de usuários simultâneos. 2.1.3 Padrões WAN WANs usam o modelo de referência OSI, mas se concentram principalmente nas camadas 1 e 2. Os padrões WAN normalmente descrevem os métodos de distribuição da camada física como as exigências da camada de enlace de dados, incluindo o endereçamento físico, o controle de fluxo e o encapsulamento. Os padrões WAN são definidos e gerenciados por diversas autoridades reconhecidas.
    • 34 Os protocolos da camada física descrevem como oferecer conexões elétricas, mecânicas, operacionais e funcionais aos serviços oferecidos por um provedor de serviços de comunicações. Alguns dos padrões comuns da camada física estão listados na figura e seus conectores estão ilustrados na figura.
    • 35 Os protocolos da camada de enlace definem a maneira como os dados são encapsulados para transmissão para localidades remotas e os mecanismos para transferir os quadros resultantes. São usadas diversas tecnologias diferentes, tais como ISDN, Frame Relay ou ATM (Asynchronous Transfer Mode – Modo de Transferência Assíncrona). Esses protocolos usam o mesmo mecanismo de enquadramento básico, o HDLC (high-level data link control), um padrão ISO ou um de seus subconjuntos ou variantes. 2.1.4 Encapsulamento WAN Os dados da camada de rede são passados para a camada de enlace para serem entregues em um enlace físico, que normalmente em uma conexão WAN é ponto-a-ponto. A camada de enlace monta um quadro em torno dos dados da camada de rede, para que seja possível aplicar as verificações e controles necessários. Cada tipo de conexão WAN usa um protocolo da camada 2 para encapsular o tráfego enquanto ele atravessa o enlace WAN. Para garantir a utilização do protocolo de encapsulamento correto, deve-se configurar o tipo de encapsulamento da camada 2 usado na interface serial de cada roteador. A escolha dos protocolos de encapsulamento depende da tecnologia WAN e dos equipamentos utilizados. A maioria dos enquadramentos é baseada no padrão HDLC. O enquadramento HDLC proporciona entrega confiável dos dados através de linhas não confiáveis e inclui sinalização para controle de fluxo e de erros. O quadro sempre começa e termina com um campo de flag de 8 bits, cujo padrão é 01111110. Como existe uma probabilidade de que esse padrão ocorra nos dados reais, o sistema HDLC emissor sempre insere um bit 0 após cada cinco 1s no campo de dados; portanto, na prática, a seqüência de flag só pode ocorrer nas extremidades do quadro. O sistema receptor remove os bits inseridos. Quando os quadros são transmitidos consecutivamente, o flag final do primeiro quadro é usado como flag inicial do quadro seguinte.
    • 36 O campo de endereço não é necessário nos enlaces WAN, que são quase sempre ponto-a- ponto. Mesmo assim, o campo de endereço está presente e pode ter um ou dois bytes de comprimento. O campo de controle indica o tipo de quadro, que pode ser de informação, supervisão ou não numerado: • Os quadros não numerados (unnumbered frames) transportam mensagens de configuração da linha. • Os quadros de informação (information frames) transportam dados da camada de rede. • Os quadros de supervisão (supervision frames) controlam o fluxo dos quadros de informação e solicitam retransmissão dos dados em caso de erro. Normalmente, o campo de controle tem 1 byte, mas pode ter 2 bytes em sistemas de janelas deslizantes. Juntos, o campo de endereço e o campo de controle são chamados de cabeçalho do quadro. Os dados encapsulados vêm após o campo de controle. Em seguida, uma seqüência de verificação do quadro (FCS) usa o mecanismo de verificação de redundância cíclica (CRC) para estabelecer um campo de dois ou quatro bytes. São usados diversos protocolos de enlaces de dados, incluindo os subconjuntos e versões proprietárias do HDLC. Tanto o PPP quanto a versão do HDLC da Cisco tem um campo extra no cabeçalho para identificar o protocolo da camada de rede dos dados encapsulados. 2.1.5 Comutação por pacotes e por circuito As redes comutadas por pacotes foram desenvolvidas para diminuir os custos das redes públicas comutadas por circuito e para oferecer uma tecnologia WAN mais econômica. Quando um assinante faz uma chamada telefônica, o número discado é usado para definir os switches nas estações de comutação ao longo da rota da chamada, para que haja um circuito contínuo do usuário que originou a chamada até o destinatário. Por causa da operação de comutação usada para estabelecer o circuito, o sistema telefônico é chamado de rede comutada por circuito. Se os telefones são substituídos por modems, o circuito comutado é capaz de transportar dados de computador.
    • 37 O caminho interno seguido pelo circuito entre as estações de comutação é compartilhado por várias conversas. Usa-se a multiplexação por divisão de tempo (TDM) para dar a cada conversa uma parcela da conexão de cada vez. A TDM garante a disponibilização de uma conexão de capacidade fixa para o assinante. Se o circuito transportar dados de computador, o uso dessa capacidade fixa pode não ser eficiente. Por exemplo, se o circuito for usado para acessar a Internet, haverá um pico de atividade quando uma página da Web estiver sendo transferida. Depois disso, pode não haver nenhuma atividade enquanto o usuário lê a página e, em seguida, outro pico de atividade quando a próxima página for transferida. Essa variação do uso entre zero e o máximo é típica do tráfego das redes de computadores. Como o assinante tem uso exclusivo da alocação de capacidade fixa, geralmente os circuitos comutados são uma maneira cara de movimentar dados. Uma alternativa é alocar a capacidade para o tráfego somente quando isso for necessário, e compartilhar a capacidade disponível entre muitos usuários. Com uma conexão comutada por circuito, os bits de dados colocados no circuito são entregues automaticamente na ponta remota, pois o circuito já está estabelecido. Se o circuito precisar ser compartilhado, deverá haver algum mecanismo que rotule os bits para que o sistema saiba onde deve entregá-los. É difícil rotular bits individuais, portanto eles são agrupados em grupos chamados células, quadros ou pacotes. O pacote a ser entregue passa de uma estação comutadora para outra, através da rede do provedor. As redes que implementam esse sistema são chamadas de redes comutadas por pacotes. Os enlaces que conectam os switches da rede do provedor pertencem a um assinante individual durante a transferência dos dados, portanto, muitos assinantes podem compartilhar o enlace. Os custos podem ser significativamente mais baixos do que em uma conexão comutada por circuito. Os dados nas redes comutadas por pacotes estão sujeitos a atrasos imprevisíveis quando pacotes individuais esperam que os pacotes de outro assinante sejam transmitidos por um switch. Os switches de uma rede comutada por pacotes determinam, a partir das informações de endereçamento de cada pacote, o enlace para onde o pacote deve ser enviado em seguida. Há duas abordagens para a determinação desses enlaces: sem conexão ou orientada a conexão. Os sistemas sem conexão, como a Internet, transportam informações de endereçamento completas em cada pacote. Cada switch deve avaliar o endereço para determinar aonde deve enviar o pacote. Os sistemas orientados a conexão predeterminam a rota de um pacote, e cada pacote só precisa transportar um identificador. No caso do Frame Relay, esses identificadores
    • 38 são chamados de DLCI (Data Link Control Identifiers). O switch determina a rota a seguir pesquisando o identificador em tabelas mantidas na memória. O conjunto de entradas das tabelas identifica uma determinada rota ou circuito através do sistema. Se esse circuito só existir fisicamente enquanto um pacote estiver viajando através dele, é chamado de Circuito Virtual (VC). As entradas das tabelas que constituem um VC podem ser estabelecidas por meio do envio de uma solicitação de conexão através da rede. Neste caso, o circuito resultante é chamado de Circuito Virtual Comutado (SVC - Switched Virtual Circuit). Os dados que devem viajar em SVCs precisam esperar até que as entradas das tabelas tenham sido configuradas. Uma vez estabelecido, o SVC pode ficar em operação durante horas, dias ou semanas. Onde for necessário um circuito sempre disponível, será estabelecido um circuito virtual permanente (PVC - Permanent Virtual Circuit). As entradas das tabelas são carregadas pelos switches no momento da inicialização, para que o PVC esteja sempre disponível. 2.1.6 Opções de enlace WAN A figura apresenta uma visão geral das opções de enlace WAN. A comutação por circuito estabelece uma conexão física dedicada para voz ou dados entre um emissor e um receptor. Antes que seja possível iniciar a comunicação, é necessário estabelecer a conexão, configurando os switches. Isso é feito pelo sistema telefônico, usando- se o número discado. O ISDN é usado tanto em linhas digitais como em linhas de voz. Para evitar os atrasos associados ao estabelecimento de uma conexão, as prestadoras de serviços de telefonia também oferecem circuitos permanentes. Essas linhas dedicadas ou privadas oferecem banda mais larga do que a oferecida em um circuito comutado. Exemplos de conexões comutadas por circuito: • POTS (Plain Old Telephone System – Serviço Telefônico Comum); • ISDN BRI (Basic Rate Interface – Interface de Taxa Básica); • ISDN PRI (Primary Rate Interface – Interface de Taxa Primária). Muitos usuários de WAN não fazem uso eficiente da largura de banda fixa disponível em circuitos dedicados, comutados ou permanentes, pois o fluxo de dados flutua. Os provedores de comunicações têm redes de dados disponíveis para atender esses usuários de maneira mais apropriada. Nessas redes, os dados são transmitidos em células, quadros ou pacotes rotulados, através de uma rede comutada por pacotes. Como os enlaces internos entre os
    • 39 switches são compartilhados entre muitos usuários, os custos da comutação por pacotes são mais baixos do que os da comutação por circuito. Os atrasos (latência) e a variabilidade do atraso (jitter) são maiores em redes comutadas por pacotes do que em redes comutadas por circuito. Isso se deve ao fato de os enlaces serem compartilhados e os pacotes precisarem ser recebidos por inteiro em um switch antes de passarem para o próximo. Apesar da latência e do jitter inerentes às redes compartilhadas, a tecnologia moderna permite o transporte satisfatório de voz e até mesmo vídeo nessas redes. As redes comutadas por pacotes podem estabelecer rotas através dos switches para determinadas conexões ponta a ponta. As rotas estabelecidas quando os switches são iniciados são PVCs. As rotas estabelecidas sob demanda são SVCs. Se o roteamento não for pré-estabelecido e for determinado por cada switch para cada pacote, a rede é dita sem conexão. Para se conectar a uma rede comutada por pacotes, um assinante precisa de um loop local até a localidade mais próxima onde o provedor disponibiliza o serviço. Isso é chamado de ponto de presença (POP) do serviço. Normalmente, trata-se de uma linha privada dedicada. Essa linha é muito mais curta que uma linha privada que seja conectada diretamente às localidades do assinante e geralmente comporta vários VCs. Como é provável que nem todos os VCs venham a exigir demanda máxima ao mesmo tempo, a capacidade da linha privada pode ser menor que a soma dos VCs individuais. Exemplos de conexões comutadas por pacotes ou células: • Frame Relay; • X.25; • ATM. 2.2 Tecnologias WAN 2.2.1 Discagem analógica (Dialup) Quando há necessidade de transferências intermitentes com baixo volume de dados, os modems e as linhas telefônicas discadas analógicas permitem conexões comutadas dedicadas e de baixa capacidade.
    • 40 A telefonia tradicional usa um cabo de cobre, chamado de loop local, para conectar o aparelho telefônico das instalações do assinante à rede telefônica pública comutada (PSTN). O sinal do loop local durante uma chamada é um sinal eletrônico que varia continuamente, que é uma conversão da voz do assinante. O loop local não é adequado para o transporte direto dos dados binários de um computador, mas um modem pode enviar esse tipo de dados através da rede telefônica de voz. O modem modula os dados binários em um sinal analógico na origem e demodula o sinal analógico em dados binários no destino. As características físicas do loop local e sua conexão à PSTN limitam a taxa do sinal. O limite superior fica em torno de 33 kbps. A taxa pode ser aumentada para até cerca de 56 kbps se o sinal vier diretamente através de uma conexão digital. Para pequenas empresas, isso pode ser adequado para a troca de informações, tais como números de vendas, preços, relatórios de rotina e e-mail. O uso de discagem automática à noite ou nos finais de semana para a transferência de arquivos grandes e backup de dados pode aproveitar as tarifas (cobranças de pulsos) mais baixas dos horários fora de pico. As tarifas baseiam-se na distância entre os nós, no horário e na duração da chamada. As vantagens no uso das linhas analógicas e de modems são a simplicidade, a disponibilidade e o baixo custo de implementação. As desvantagens são as baixas taxas de dados e o tempo de conexão relativamente longo. O circuito dedicado proporcionado pela discagem (dialup) tem pouco atraso ou jitter para o tráfego ponto-a-ponto, mas o tráfego de voz ou vídeo não opera adequadamente a taxas de bits relativamente baixas. 2.2.2 ISDN As conexões internas, ou troncos, da PSTN deixaram de transportar sinais analógicos multiplexados por divisão de freqüência e passaram a transportar sinais digitais multiplexados por divisão de tempo (TDM). Uma etapa seguinte óbvia é ativar o loop local para transportar sinais digitais que resultem em conexões comutadas com maior capacidade. O ISDN (Integrated Services Digital Network) transforma o loop local em uma conexão digital TDM. A conexão usa canais bearer (B) que suportam 64 kbps para transportar voz ou dados e um canal delta (D) de sinalização para o estabelecimento das chamadas e para outras finalidades. O ISDN BRI (Basic Rate Interface) visa às aplicações domésticas e de pequenas empresas, oferecendo dois canais B de 64 kbps e um canal D de 16 kbps. Para instalações maiores, está disponível o ISDN PRI (Primary Rate Interface). Na América do Norte, o PRI oferece 23 canais
    • 41 B de 64 kbps e um canal D de 64 kbps, perfazendo uma taxa de bits total de até 1,544 Mbps. Isso inclui ainda um tráfego adicional (overhead) para sincronização. Na Europa, na Austrália e em outras partes do mundo, o ISDN PRI oferece 30 canais B e um canal D, perfazendo uma taxa de bits total de até 2,048 Mbps, incluindo tráfego adicional (overhead) para sincronização. Na América do Norte, o PRI corresponde a uma conexão T1. A taxa do PRI internacional corresponde a uma conexão E1. O canal D BRI é sub-utilizado, pois tem apenas dois canais B para controlar. Alguns provedores permitem que o canal D transporte dados a baixas taxas de bits, tais como as conexões X.25 a 9,6 kbps. Para WANs pequenas, o ISDN BRI pode oferecer um mecanismo de conexão ideal. O BRI tem um tempo de configuração da chamada de menos de um segundo, e seu canal B de 64 kbps oferece capacidade maior que a de um enlace de modem analógico. Se for necessária uma maior capacidade, um segundo canal B pode ser ativado para oferecer um total de 128 kbps. Embora inadequado para vídeo, isso permite diversas conversas simultâneas de voz, além do tráfego de dados. Outra aplicação comum do ISDN é oferecer capacidade adicional conforme a necessidade em uma conexão de linha privada. A linha privada é dimensionada para transportar cargas de tráfego médias, enquanto o ISDN é adicionado durante períodos de pico de demanda. O ISDN também é usado como backup em caso de falha da linha privada. As tarifas de ISDN dependem da quantidade de canais B e são semelhantes às das conexões analógicas de voz.
    • 42 Com o ISDN PRI, é possível conectar vários canais B entre os dois nós. Isso permite videoconferências e conexões de dados de banda larga sem latência nem jitter. Várias conexões podem ser muito caras quando forem de longas distâncias. 2.2.3 Linha privada Quando há necessidade de conexões dedicadas permanentes, são usadas linhas privadas com capacidades que chegam a 2,5 Gbps. Um enlace ponto-a-ponto fornece um caminho de comunicação WAN preestabelecido a partir das instalações do cliente até um destino remoto através da rede do provedor. As linhas ponto- a-ponto geralmente são privadas de uma prestadora e são chamadas de linhas privadas. As linhas privadas estão disponíveis em diferentes capacidades. Esses circuitos dedicados geralmente têm seu preço baseado na largura de banda exigida e na distância entre os dois pontos conectados. Os enlaces ponto-a-ponto geralmente são mais caros do que os serviços compartilhados, tais como Frame Relay. O custo das soluções de linhas privadas pode se tornar significativo quando elas são usadas para conectar várias localidades. Há ocasiões em que o custo da linha privada é superado pelos benefícios. A capacidade dedicada não oferece latência nem jitter entre os nós. A disponibilidade constante é essencial para algumas aplicações, como o comércio eletrônico. Para cada conexão de linha privada é necessária uma porta serial do roteador. Também são necessários uma CSU/DSU e o circuito do provedor de serviços. As linhas privadas são usadas extensivamente para criar WANs e oferecem capacidade dedicada permanente.
    • 43 Elas têm sido a conexão tradicionalmente mais escolhida, mas têm diversas desvantagens. Geralmente, o tráfego da WAN é variável e as linhas privadas têm capacidade fixa. Isso faz com que a largura de banda da linha raramente tenha o valor exato que é necessário. Além disso, cada nó precisaria de uma interface no roteador, o que aumentaria os custos dos equipamentos. Qualquer alteração na capacidade da linha privada geralmente exige uma visita da prestadora à localidade. As linhas privadas fornecem conexões ponto-a-ponto entre redes locais corporativas e conectam as filiais a uma rede comutada por pacotes. Várias conexões podem ser multiplexadas em uma linha privada, resultando em enlaces mais curtos e necessidade de menos interfaces. 2.2.4 X.25 Em resposta ao preço das linhas privadas, os provedores de telecomunicações introduziram as redes comutadas por pacotes, usando linhas compartilhadas para reduzir custos. A primeira dessas redes comutadas por pacotes foi padronizada como o grupo de protocolos X.25. O X.25 oferece uma capacidade variável compartilhada com baixa taxa de bits, que pode ser tanto comutada como permanente. É um protocolo da camada de rede e os assinantes recebem um endereço de rede. É possível estabelecer circuitos virtuais através da rede com pacotes de solicitação de chamadas para o endereço de destino. O SVC resultante é identificado por um número de canal. Os pacotes de dados rotulados com o número do canal são entregues no endereço correspondente. Vários canais podem estar ativos em uma única conexão.
    • 44 Os assinantes conectam-se à rede X.25 com linhas privadas ou com conexões discadas (dialup). As redes X.25 também podem ter canais pré-estabelecidos entre os assinantes que fornecerem um PVC. Elas podem ser bastante econômicas, pois as tarifas baseiam-se na quantidade de dados entregues, e não no tempo de conexão ou na distância. Os dados podem ser entregues a qualquer taxa até a capacidade da conexão. Isso oferece certa flexibilidade. Geralmente, as redes X.25 têm baixa capacidade, com um máximo de 48 kbps. Além disso, os pacotes de dados estão sujeitos aos atrasos típicos das redes compartilhadas. A tecnologia X.25 não está mais amplamente disponível como tecnologia WAN nos Estados Unidos. O Frame Relay substituiu a X.25 em vários provedores de serviços. As aplicações típicas da X.25 são as leitoras de cartões em pontos de vendas. Essas leitoras usam X.25 no modo dialup para validar as transações em um computador central. Algumas empresas também usam redes de valor agregado (VAN) baseadas em X.25 para transferir faturas EDI (Electronic Data Interchange – Intercâmbio Eletrônico de Dados), conhecimentos de cargas e outros documentos comerciais. Para essas aplicações, a pequena largura de banda e a alta latência não são uma preocupação, pois o custo baixo torna a X.25 acessível. 2.2.5 Frame Relay Com a crescente demanda por comutação de pacotes com maior largura de banda e latência mais baixa, os provedores de telecomunicações introduziram o Frame Relay. Embora a disposição física da rede pareça semelhante à da X.25, as taxas de dados disponíveis geralmente vão até 4 Mbps, sendo que alguns provedores oferecem taxas ainda maiores. O Frame Relay difere da X.25 em diversos aspectos. O mais importante é que se trata de um protocolo muito mais simples, que funciona na camada de enlace e não na camada de rede. O Frame Relay não implementa controle de erro nem de fluxo. O tratamento simplificado dos quadros leva à redução da latência, e as medidas tomadas para evitar o aumento dos quadros nos switches intermediários ajudam a reduzir o jitter. A maioria das conexões Frame Relay são PVCs e não SVCs. Geralmente, a conexão à borda da rede é realizada através de uma linha privada, mas alguns provedores disponibilizam conexões discadas (dialup) usando linhas ISDN. O canal D do ISDN é usado para configurar um SVC em um ou mais canais B. As tarifas do Frame Relay baseiam-se na capacidade da porta de conexão à rede. Outros fatores são a capacidade solicitada e a taxa de informações contratada (CIR) dos vários PVCs através da porta. O Frame Relay oferece conectividade permanente através de um meio com largura de banda compartilhada, que transporta tráfego tanto de voz como de dados. É ideal para conectar redes locais corporativas. O roteador da rede local precisa somente de uma interface, mesmo quando
    • 45 são usados vários VCs. Uma linha privada de curta distância até à borda da rede Frame Relay permite conexões econômicas entre redes locais bastante distantes. 2.2.6 ATM Os provedores de comunicações perceberam a necessidade de uma tecnologia de rede compartilhada permanente que oferecesse latência e jitter muito baixos, com larguras de banda muito maiores. A solução encontrada foi o ATM (Asynchronous Transfer Mode – Modo de Transferência Assíncrono). O ATM tem taxas de dados superiores a 155 Mbps. Assim como as outras tecnologias compartilhadas, tais como X.25 e Frame Relay, os diagramas de WANs ATM são parecidos. ATM é uma tecnologia capaz de transferir voz, vídeo e dados através de redes públicas e privadas. Foi construído sobre uma arquitetura baseada em células, em vez de uma arquitetura baseada em quadros. As células ATM têm sempre um comprimento fixo de 53 bytes. A célula ATM de 53 bytes contém um cabeçalho ATM de 5 bytes seguido de 48 bytes de payload ATM. Células pequenas de comprimento fixo são adequadas para transportar tráfego de voz e vídeo, pois esse tráfego não tolera atrasos. O tráfego de voz e vídeo não precisa esperar por um pacote de dados maior para ser transmitido. A célula ATM de 53 bytes é menos eficiente que os quadros e pacotes maiores do Frame Relay e do X.25. Além disso, a célula ATM tem pelo menos 5 bytes de tráfego adicional (overhead) para cada payload de 48 bytes. Quando a célula está transportando pacotes da camada de rede, o overhead é maior, pois o switch ATM deve ser capaz de remontar os pacotes no destino. Uma linha ATM típica precisa de quase 20% a mais de largura de banda do que o Frame Relay para transportar o mesmo volume de dados da camada de rede. O ATM oferece tanto PVCs como SVCs, embora os PVCs sejam mais comuns em WANs. Assim como outras tecnologias compartilhadas, o ATM permite vários circuitos virtuais em uma única conexão de linha privada até a borda da rede. 2.2.7 DSL A tecnologia DSL (Digital Subscriber Line – Linha Digital de Assinantes) é uma tecnologia de banda larga que usa as linhas telefônicas existentes de par trançado para transportar dados em banda larga para os assinantes do serviço. O serviço DSL é considerado de banda larga, diferentemente do serviço de banda base das redes locais comuns. Banda larga refere-se a uma técnica que usa várias freqüências dentro do mesmo meio físico para transmitir dados. O termo xDSL abrange diversas formas semelhantes, embora concorrentes, de tecnologias DSL:
    • 46 • ADSL (Asymmetric DSL – DSL Assimétrica); • SDSL (Symmetric DSL – DSL Simétrica); • HDSL (High Bit Rate DSL – DSL com Alta Taxa de Bits); • IDSL (ISDN-like DSL – DSL tipo ISDN); • CDSL (Consumer DSL – DSL do Consumidor), também chamada de DSL-lite ou G.lite. A tecnologia DSL permite que o provedor de serviços ofereça serviços de rede de alta velocidade aos clientes, utilizando as linhas de cobre do loop local instalado. A tecnologia DSL permite que a linha do loop local seja usada para a conexão telefônica normal de voz e oferece uma conexão permanente para conectividade instantânea à rede. Várias linhas de assinantes DSL são multiplexadas em um nico enlace de alta capacidade, através do uso de um DSLAM (DSL Access Multiplexer – Multiplexador de Acesso DSL) na localidade do provedor. Os DSLAMs incorporam a tecnologia TDM para agregar muitas linhas de assinantes em um único meio menos incômodo, geralmente uma conexão T3/DS3. As tecnologias DSL atuais estão usando técnicas sofisticadas de codificação e modulação para atingir taxas de dados de até 8,192 Mbps. O canal de voz de um telefone padrão abrange o intervalo de freqüências de 330 Hz a 3,3 kHz. Um intervalo de freqüências, ou janela, de 4 kHz é considerado a exigência para qualquer transmissão de voz no loop local. As tecnologias DSL fazem transmissões de dados upstream e downstream em freqüências acima dessa janela de 4 kHz. Essa técnica é o que permite que as transmissões de voz e dados ocorram ao mesmo tempo em um serviço DSL. Os dois tipos básicos de tecnologias DSL são assimétrica (ADSL) e simétrica (SDSL). Todas as formas de serviço DSL são categorizadas como ADSL ou SDSL e há diversas variedades de cada tipo. O serviço assimétrico fornece maior largura de banda para download do que para upload ao usuário. O serviço simétrico oferece a mesma capacidade nas duas direções.
    • 47 Nem todas as tecnologias DSL permitem o uso de um telefone. A SDSL é chamada de cobre seco, pois não tem tom de discagem e não oferece serviço de telefonia na mesma linha. Portanto, o serviço SDSL requer uma linha separada. As diferentes variedades de DSL oferecem diferentes larguras de banda, com capacidades superiores às de uma linha privada T1 ou E1. As taxas de transferência dependem do comprimento real do loop local e do tipo e das condições do cabeamento. Para um serviço satisfatório, o loop deve ter menos de 5,5 quilômetros. A disponibilidade da DSL está longe de ser universal, havendo uma ampla variedade de tipos e padrões, novos e atuais. Não é uma opção comum dos departamentos de informática das empresas oferecer suporte a trabalhadores residenciais. Geralmente, um assinante não tem a opção de se conectar à rede da empresa diretamente, mas deve se conectar primeiramente a um provedor de serviços de Internet. A partir daí, é feita uma conexão IP através da Internet até a empresa. Assim, surgem riscos de segurança. Para resolver essas questões de segurança, os serviços DSL oferecem recursos para utilização de conexões VPN (Virtual Private Network – Rede Virtual Privada) até um servidor VPN, que geralmente fica nas instalações da empresa. 2.2.8 Cable modem Os cabos coaxiais são amplamente utilizados em áreas urbanas para distribuir sinais de televisão. Algumas redes de televisão a cabo disponibilizam acesso à rede. Isso permite maior largura de banda do que o loop local do telefone convencional. Cable modems aperfeiçoados permitem transmissões de dados bidirecionais de alta velocidade, usando as mesmas linhas coaxiais que transmitem a televisão a cabo. Alguns provedores de serviço a cabo prometem velocidades de dados até 6,5 vezes maiores que as das linhas privadas T1. Essa velocidade torna o cabo um meio atraente para transferir grandes quantidades de informações digitais rapidamente, como clipes de vídeo, arquivos de áudio e grandes volumes de dados. Informações que levariam dois minutos para ser baixadas usando ISDN BRI podem ser baixadas em dois segundos através de uma conexão com cable modem. Os cable modems oferecem uma conexão permanente e uma instalação simples. Uma conexão a cabo permanente significa que os computadores conectados estão vulneráveis a
    • 48 violações de segurança o tempo todo e precisam ser protegidos adequadamente com firewalls. Para resolver essas questões de segurança, os serviços de cable modem oferecem recursos para utilização de conexões VPN (Virtual Private Network – Rede Virtual Privada) até um servidor VPN, que geralmente fica nas instalações da empresa. Um cable modem é capaz de transmitir até de 30 a 40 Mbps de dados em um único canal a cabo de 6 MHz. Isso é quase 500 vezes mais rápido que um modem de 56 kbps. Com um cable modem, um assinante pode continuar a receber o serviço de televisão a cabo ao mesmo tempo em que recebe dados em um computador pessoal. Isso é feito com ajuda de um simples divisor (splitter) um-para-dois. Os assinantes de cable modem precisam usar o provedor de serviços de Internet associado ao provedor do serviço. Todos os assinantes locais compartilham a mesma largura de banda do cabo. Conforme outros usuários forem assinando o serviço, a largura de banda disponível pode ficar abaixo da taxa esperada.
    • 49 Uso de CMTS Arquitetura de uma rede de dados a cabo
    • 50 Arquitetura De Rede de Dados a Cabo 2.3 Projeto de WAN 2.3.1 Comunicação por WAN WANs são consideradas um conjunto de enlaces de dados que conectam roteadores das redes locais. As estações dos usuários e os servidores nas redes locais trocam dados. Os roteadores transmitem dados entre as redes através dos enlaces de dados. Devido ao custo e a questões legais, um provedor de comunicações ou uma prestadora comum normalmente são donos dos enlaces de dados que compõem uma WAN. Os enlaces são disponibilizados aos assinantes mediante o pagamento de uma taxa de uso e são utilizados para interconectar redes locais ou para estabelecer conexões com redes remotas. A velocidade de transferência de dados (largura de banda) em uma WAN é consideravelmente mais lenta do que os 100 Mbps que são comuns em uma rede local. As tarifas para fornecimento do enlace são o principal elemento do custo de uma WAN e o projeto deve preocupar-se em fornecer o máximo de largura de banda a um custo aceitável. Com a pressão dos usuários por mais acesso ao serviço a velocidades mais altas e com a pressão dos gerentes para contenção de custos, determinar a configuração ótima de uma WAN não é uma tarefa fácil. WANs transportam vários tipos de tráfego, como voz, dados e vídeo. O projeto selecionado deve fornecer capacidade adequada e tempos de trânsito que atendam às exigências da empresa. Dentre outras especificações, o projeto deve considerar a topologia das conexões entre as diversas localidades, a natureza dessas conexões e a capacidade da largura de banda. WANs mais antigas geralmente consistiam em enlaces de dados que conectavam diretamente computadores mainframe remotos.
    • 51 As WANs de hoje, porém, conectam redes locais geograficamente distantes. Estações de usuários finais, servidores e roteadores comunicam-se através das redes locais, e os enlaces de dados da WAN terminam nos roteadores locais. Trocando informações de endereço da camada 3 sobre as redes locais conectadas diretamente, os roteadores determinam o caminho mais apropriado através da rede para os fluxos de dados necessários. Os roteadores também podem fornecer gerenciamento da qualidade do serviço (QoS), que destina prioridades aos diferentes fluxos de tráfego. Como a WAN é meramente um conjunto de interconexões entre roteadores baseados em redes locais, não há serviços na WAN. As tecnologias WAN funcionam nas três camadas inferiores do modelo de referência OSI.
    • 52 Os roteadores determinam o destino dos dados a partir dos cabeçalhos da camada de rede e transferem os pacotes para a conexão do enlace de dados apropriada, para serem entregues na conexão física. 2.3.2 Etapas do projeto de uma WAN Projetar uma WAN pode ser uma tarefa desafiadora, mas abordar o projeto de forma sistemática pode levar a um melhor desempenho com custo reduzido. Muitas WANs evoluíram ao longo do tempo, portanto muitas das diretrizes discutidas aqui podem não ter sido consideradas. Toda vez que se considerar uma modificação em uma WAN existente, deve-se seguir os passos deste módulo. As modificações em uma WAN podem ser resultado de mudanças, tais como uma expansão da empresa servida pela WAN ou a acomodação de novas práticas de trabalho e métodos de negócios. As empresas instalam conectividade WAN porque existe uma necessidade de movimentar dados de maneira ágil entre filiais externas. A função da WAN é atender às exigências da empresa. Atender a essas exigências representa custos, por exemplo, em equipamentos e gerenciamento dos enlaces de dados. Ao projetar a WAN, é necessário conhecer o tráfego de dados que deve ser transportado, sua origem e seu destino. WANs transportam diversos tipos de tráfego, com exigências variáveis quanto a largura de banda, latência e jitter. Para cada par de nós e para cada tipo de tráfego, é necessário ter informações sobre as diversas características do tráfego.
    • 53 Para determiná-las, podem ser necessários estudos extensos e consultas aos usuários da rede. O projeto geralmente envolve atualização, expansão ou modificação de uma WAN existente. Muitos dos dados necessários podem vir das estatísticas existentes do gerenciamento da rede. Conhecer os diversos nós permite selecionar uma topologia ou layout para a WAN. A topologia será influenciada por considerações geográficas, mas também por exigências, tais como a disponibilidade. Uma forte exigência de disponibilidade requer enlaces extras que forneçam caminhos de dados alternativos para redundância e balanceamento de carga. Uma vez escolhidos os nós e os enlaces, pode-se estimar a largura de banda necessária. O tráfego nos enlaces pode ter exigências variáveis de latência e jitter. Uma vez determinada a disponibilidade da largura de banda, deve-se selecionar as tecnologias de enlace apropriadas. Finalmente, pode-se determinar os custos de instalação e operacionais da WAN e compará-los com a necessidade comercial que motivou a criação da WAN. Na prática, o processo de seguir as etapas mostradas na figura acima raramente é linear. Várias modificações podem ser necessárias antes da finalização de um projeto. Um monitoramento e uma reavaliação constantes também são necessários após a instalação da WAN, a fim de manter o desempenho otimizado.
    • 54 2.3.3 Como identificar e selecionar os recursos de rede Projetar uma WAN consiste essencialmente no seguinte: • Selecionar um padrão ou layout de interconexão para os enlaces entre as diversas localidades; • Selecionar as tecnologias para esses enlaces, a fim de atender às exigências da empresa a um custo aceitável. Muitas WANs usam uma topologia em estrela. Conforme a empresa cresce e novas filiais são adicionadas, essas filiais são conectadas à matriz, produzindo uma topologia em estrela tradicional. Às vezes, os nós em estrela estão em conexão cruzada, criando uma topologia em malha ou malha parcial. Isso proporciona muitas combinações possíveis para as interconexões. Ao reprojetar, reavaliar ou modificar uma WAN, deve-se selecionar uma topologia que atenda às exigências do projeto.
    • 55 Ao selecionar um layout, há vários fatores a se considerar. Uma maior quantidade de enlaces aumenta o custo dos serviços de rede e a existência de vários caminhos entre os destinos aumenta a confiabilidade. Adicionar dispositivos de rede no caminho de dados aumenta a latência e diminui a confiabilidade. Geralmente, cada pacote precisa ser completamente recebido em um nó para poder ser passado para o próximo. Uma variedade de tecnologias dedicadas com diferentes recursos está disponível para os enlaces de dados. Tecnologias que exigem o estabelecimento de uma conexão para que os dados possam ser transmitidos, como o telefone convencional, ISDN ou X.25, não são adequadas para WANs que exijam tempo de resposta pequeno ou baixa latência. Uma vez estabelecidos, os serviços ISDN e outros serviços de discagem são circuitos de baixa latência e baixo jitter. Geralmente, o ISDN é a aplicação escolhida para conectar um pequeno escritório residencial (SOHO) à rede da empresa, oferecendo conectividade confiável e largura de banda adaptável. Diferentemente do cabo e da DSL, o ISDN é uma opção sempre que um serviço de telefonia moderno estiver disponível. Ela também é útil como enlace de backup para conexões principais e para fornecer conexões com largura de banda sob demanda em paralelo com uma conexão principal. Uma característica dessas tecnologias é que a empresa só precisa pagar quando o circuito estiver em uso. As diferentes partes da empresa podem ser conectadas diretamente com linhas privadas ou podem ser conectadas com um enlace de acesso ao ponto de presença (POP) mais próximo de uma rede compartilhada. X.25, Frame Relay e ATM são exemplos de redes compartilhadas. As linhas privadas geralmente são muito mais longas e, portanto, mais caras que os enlaces de acesso, mas estão disponíveis em praticamente qualquer largura de banda. Oferecem latência e jitter muito baixos. As redes ATM, Frame Relay e X.25 transportam tráfego de diversos clientes nos mesmos enlaces internos. A empresa não tem controle sobre a quantidade de enlaces ou saltos que precisam ser percorridos pelos dados na rede compartilhada. Ela não pode controlar o tempo que os dados precisam esperar em cada nó antes de se moverem para o enlace seguinte. Essa incerteza quanto à latência e ao jitter tornam essas tecnologias inadequadas para alguns tipos de tráfego de rede. Entretanto, as desvantagens de uma rede compartilhada geralmente podem ser superadas pelo custo reduzido. Como diversos clientes estão compartilhando o enlace, o custo para cada um deles geralmente será menor do que o custo de um enlace direto com a mesma capacidade. Embora o ATM seja uma rede compartilhada, ele foi projetado para produzir latência e jitter mínimos, por meio do uso de enlaces internos de alta velocidade, enviando unidades de dados facilmente gerenciáveis, chamadas células. As células ATM têm um comprimento fixo de 53 bytes, 48 para dados e 5 para o cabeçalho. O ATM é amplamente utilizado para transportar tráfego sensível a atrasos. O Frame Relay também pode ser utilizado para tráfego sensível a atrasos, freqüentemente usando mecanismos de QoS para dar prioridade aos dados mais sensíveis.
    • 56 Uma WAN típica usa uma combinação de tecnologias, que normalmente são escolhidas com base no tipo e no volume do tráfego. ISDN, DSL, Frame Relay ou linhas privadas são usados para conectar filiais individuais em uma área. Frame Relay, ATM ou linhas privadas são usados para conectar áreas externas ao backbone. ATM ou linhas privadas formam o backbone WAN. 2.3.4 Modelo de projeto em três camadas É necessária uma abordagem sistemática quando for preciso unir muitas localidades. Uma solução hierárquica em três camadas oferece muitas vantagens. Imagine uma empresa que opere em todos os países da União Européia e que tenha uma filial em cada cidade com população superior a 10.000 habitantes. Cada filial tem uma rede local e foi decidido que todas as filiais devem ser interconectadas. Fica claro que uma rede em malha não é factível, pois seriam necessários cerca de 500.000 enlaces para os 900 centros. Uma estrela simples seria muito difícil de implementar, pois necessita de um roteador com 900 interfaces no ponto de concentração (hub) ou de uma única interface que transporte 900 circuitos virtuais para uma rede comutada por pacotes.
    • 57 Em vez disso, considere um modelo de projeto hierárquico. As redes locais de uma área são interconectadas para formar um grupo, várias áreas são interconectadas para formar uma região e as várias regiões são interconectadas para formar o núcleo da WAN. A área poderia ter como base a quantidade de localidades a serem conectadas, com um limite máximo entre 30 e 50. A área teria uma topologia em estrela, com os hubs das estrelas conectados para formar a região.
    • 58 As regiões poderiam ser geográficas, conectando de três a dez áreas, e o hub de cada região poderia ser ligado ponto-a-ponto. Esse modelo em três camadas segue o projeto hierárquico usado nos sistemas telefônicos. Os enlaces que conectam as várias localidades de uma área que fornecem acesso à rede da empresa são chamados de enlaces de acesso ou camada de acesso da WAN. O tráfego entre as áreas é distribuído pelos enlaces de distribuição e é repassado para os enlaces do núcleo, a fim de ser transferido a outras regiões, quando necessário. Geralmente, essa hierarquia é útil quando o tráfego da rede espelha a estrutura de filiais da empresa e é divido em regiões, áreas e filiais. Ela também é útil quando há um serviço central ao qual todas as filiais devem ter acesso, mas os níveis de tráfego são insuficientes para justificar uma conexão direta de uma filial ao serviço. A rede local do centro da área pode ter servidores que ofereçam serviço local ou para a área. Dependendo dos volumes e dos tipos de tráfego, as conexões de acesso podem ser discadas, privadas ou Frame Relay. O Frame Relay facilita malhas para redundância, sem exigir conexões físicas adicionais. Os enlaces de distribuição podem ser Frame Relay ou ATM e o núcleo da rede pode ser ATM ou com linhas privadas. 2.3.5 Outros modelos de projeto em camadas Muitas redes não exigem a complexidade de uma hierarquia completa em três camadas.
    • 59 É possível usar hierarquias mais simples. Uma empresa com diversas filiais relativamente pequenas, que exijam tráfego mínimo entre elas, pode optar por um projeto com uma só camada. Historicamente, isso não foi muito comum, devido ao comprimento das linhas privadas. O Frame Relay, em que a cobrança não está relacionada à distância, está tornando possível essa solução de projeto. Se houver necessidade de certa concentração geográfica, um projeto em duas camadas é adequado. Isso produz um padrão de "estrela de estrelas". Novamente, o padrão escolhido
    • 60 com base na tecnologia de linha privada será consideravelmente diferente do padrão baseado na tecnologia Frame Relay. Mesmo no planejamento de redes mais simples, o modelo em três camadas deve ser considerado, pois pode oferecer melhor escalonabilidade da rede. O hub no centro de um modelo em duas camadas também é um núcleo, mas sem outros roteadores de núcleo conectados a ele. Da mesma forma, em uma solução em uma camada, o hub da área serve como hub regional e como hub do núcleo. Isso permite um crescimento futuro fácil e rápido, já que o projeto básico pode ser replicado para adicionar novas áreas de serviço. 2.3.6 Outras considerações sobre o projeto de WANs Muitas WANs corporativas terão conexões com a Internet. Isso coloca problemas de segurança, mas também oferece uma alternativa para o tráfego entre as filiais. Parte do tráfego que precisa ser considerado durante o projeto vai para a Internet ou vem dela. Como a Internet existe provavelmente em todo lugar onde a empresa tenha redes locais, há duas maneiras típicas de transportar esse tráfego. Cada rede local pode ter uma conexão com seu provedor local de serviços de Internet ou pode haver uma única conexão de um dos roteadores do núcleo a um provedor. A vantagem do primeiro método é que o tráfego é transportado pela Internet e não pela rede da empresa, provavelmente resultando em enlaces WAN menores. A desvantagem de permitir vários enlaces é que toda a WAN corporativa fica aberta a ataques oriundos da Internet. Também fica difícil monitorar e proteger os vários pontos de conexão. Um único ponto de conexão é mais fácil de monitorar e proteger, mesmo que a WAN corporativa passe a transportar um tráfego que, de outra maneira, teria sido transportado através da Internet. Se cada rede local da empresa tiver uma conexão à Internet individual, surge outra possibilidade para a WAN corporativa. Onde os volumes de tráfego forem relativamente pequenos, a Internet pode ser usada como WAN corporativa, com todo o tráfego entre as filiais atravessando a Internet. Proteger as várias redes locais passa a ser um problema, mas a economia em conexões WAN pode pagar pela segurança.
    • 61 Os servidores devem ser colocados o mais próximo possível dos locais que os acessarão com maior freqüência. A replicação de servidores, com arranjo para atualizações entre servidores fora do pico, reduz a capacidade exigida dos enlaces. A localização dos serviços acessíveis pela Internet dependerá da natureza do serviço, do tráfego previsto e de questões de segurança. Esse é um tópico de projeto especializado que está além do escopo deste currículo. Resumo Devem ter sido compreendidos os importantes conceitos a seguir: • Diferenças entre as áreas geográficas atendidas por WANs e pelas redes locais; • Semelhanças entre as camadas do modelo OSI envolvidas em WANs e em redes locais; • Familiaridade com a terminologia WAN usada para descrever equipamentos, tais como CPE, CO, loop local, DTE, DCE, CSU/DSU e TA; • Familiaridade com a terminologia WAN usada para descrever serviços e padrões, tais como ISDN, Frame Relay, ATM, T1, HDLC, PPP, POST, BRI, PRI, X.25 e DSL; • Diferenças entre redes comutadas por pacotes e redes comutadas por circuito; • Diferenças e semelhanças entre as tecnologias WAN atuais, tais como serviços de discagem (dialup) analógica, ISDN, linha privada, X.25, Frame Relay e ATM; • Vantagens e desvantagens dos serviços DSL e cable modem; • Propriedade e custo associados aos enlaces de dados WAN; • Exigências de capacidade e tempos de trânsito de vários tipos de tráfego WAN, tais como voz, dados e vídeo; • Familiaridade com topologias WAN, tais como ponto-a-ponto, estrela e malha; • Elementos do projeto de uma WAN, como atualização, expansão e modificação de uma WAN existente, e recomendação de um serviço WAN a uma organização conforme suas necessidades; • Vantagens oferecidas pelo projeto de WAN hierárquica em três camadas; • Alternativas para o tráfego WAN entre filiais
    • 62 Módulo 03 – PPP Visão Geral Este módulo apresenta uma visão geral das tecnologias WAN. Ele introduz e explica a terminologia WAN, como, por exemplo: transmissão serial, multiplexação por divisão de tempo (TDM), demarcação, equipamento terminal de dados (DTE) e equipamento de comunicação de dados (DCE). São apresentados o desenvolvimento e a utilização do encapsulamento HDLC (controle de enlace de dados de alto nível), assim como os métodos para configurar e solucionar problemas de uma interface serial. PPP (Point-to-Point Protocol) é o protocolo escolhido para ser implementado em uma conexão comutada WAN serial. Ele pode tratar tanto a comunicação síncrona como assíncrona e inclui detecção de erros. O mais importante é que ele incorpora um processo de autenticação, usando CHAP ou PAP. PPP pode ser usado em vários meios físicos, incluindo par trançado, linhas de fibra ótica e transmissão por satélite. Neste módulo, são descritos os procedimentos de configuração do PPP, assim como as opções disponíveis e os conceitos de solução de problemas. Dentre as opções disponíveis, está a capacidade do PPP de usar autenticação PAP ou CHAP. Ao concluírem este módulo, os alunos deverão ser capazes de: • Explicar a comunicação serial; • Descrever e dar um exemplo de TDM; • Identificar o ponto de demarcação de uma WAN; • Descrever as funções do DTE e do DCE; • Discutir o desenvolvimento do encapsulamento HDLC; • Usar o comando encapsulation hdlc para configurar o HDLC; • Solucionar problemas de uma interface serial, usando os comandos show interface e show controllers; • Identificar as vantagens da utilização do PPP; • Explicar as funções do LCP (Link Control Protocol) e do NCP (Network Control Protocol), componentes do PPP; • Descrever as partes de um quadro PPP; • Identificar as três fases de uma sessão PPP; • Explicar a diferença entre PAP e CHAP; • Listar as etapas do processo de autenticação do PPP; • Identificar as várias opções de configuração do PPP; • Configurar o encapsulamento PPP; • Configurar a autenticação CHAP e PAP; • Usar show interface para verificar o encapsulamento serial; • Solucionar qualquer problema da configuração do PPP usando debug PPP. 3.1 Links Seriais Ponto-a-Ponto 3.1.1 Introdução à comunicação serial As tecnologias WAN baseiam-se em transmissão serial na camada física. Isso significa que os bits de um quadro são transmitidos um de cada vez pelo meio físico. Os bits que compõem o quadro da camada 2 são sinalizados, um a um, pelos processos da camada física para o meio físico.
    • 63 Os métodos de sinalização incluem NRZ-L (Nonreturn to Zero Level), HDB3 (High Density Binary 3) e AMI (Alternative Mark Inversion). Esses são exemplos de padrões de codificação da camada física, semelhantes à codificação Manchester para a Ethernet. Dentre outras coisas, esses métodos de sinalização fazem distinção entre diferentes métodos de comunicação serial. Alguns dos muitos padrões de comunicação serial são:RS-232-E. • V.35 • HSSI (High Speed Serial Interface) 3.1.2 Multiplexação por divisão de tempo A multiplexação por divisão de tempo (TDM) é a transmissão de diversas fontes de informação usando um canal (ou sinal) comum e a posterior reconstrução dos fluxos originais na extremidade remota. No exemplo mostrado na figura acima, há três fontes de informação transportadas alternadamente pelo canal de saída. Inicialmente, uma amostra dade informação é obtida de cada canal de entrada. O tamanho dessa amostra pode variar, mas geralmente é um bit ou um byte de cada vez. Dependendo da utilização de bits ou bytes, esse tipo de TDM é chamado intercalação de bits (bit-interleaving) ou intercalação de bytes (byte-interleaving).
    • 64 Cada um dos três canais de entrada tem sua própria capacidade. Para que o canal de saída possa acomodar todas as informações dessas três entradas, sua capacidade deve ser maior ou igual à soma das entradas. Em TDM, a alocação de tempo da saída está sempre presente, mesmo que a entrada TDM não tenha informações a transmitir. A saída TDM pode ser comparada a um trem com 32 vagões. Cada um é de propriedade de uma empresa de transporte e, todos os dias, o trem parte com os 32 vagões. Se uma das empresas produziu para enviar, o vagão é carregado. Se a empresa não tem nada para enviar, o vagão fica vazio, mas continua fazendo parte do trem. TDM é um conceito da camada física; ela não tem relação com a natureza das informações que estão sendo multiplexadas no canal de saída. A TDM é independente do protocolo de camada 2 que foi usado pelos canais de entrada. Um exemplo de TDM é o ISDN (Integrated Services Digital Network). A taxa básica do ISDN (BRI) tem três canais constituídos de dois canais B de 64 kbps (B1 e B2) e um canal D de 16 kbps. A TDM tem nove alocações de tempo, que são repetidas. Isso permite que a companhia telefônica gerencie, identifique e solucione problemas no loop local quando o ponto de demarcação ocorrer depois da unidade de terminação da rede (NTU), em locais onde a NT1 não faz parte do CPE. 3.1.3 Ponto de demarcação O ponto de demarcação (ou "demarc", como também é conhecido) é o ponto da rede onde termina a responsabilidade do provedor de serviços ou da companhia telefônica. Nos Estados Unidos, uma companhia telefônica fornece o loop local até dentro das instalações do cliente e este fornece os equipamentos ativos, tais como a unidade de serviço de canal/dados (CSU/DSU), nos quais termina o loop local. Geralmente, essa terminação ocorre em um painel de telefonia e o cliente é responsável pela manutenção, substituição e conserto desse equipamento. Em outros países, a unidade de terminação da rede (NTU) é fornecida e gerenciada pela companhia telefônica. Isso permite que a companhia gerencie, identifique e solucione problemas no loop local, com a ocorrência do ponto de demarcação depois da NTU. O cliente conecta um dispositivo CPE (customer premises equipment), tal como um roteador ou dispositivo de acesso frame relay, a uma NTU usando uma interface serial V.35 ou RS-232.
    • 65 3.1.4 DTE/DCE Uma conexão serial tem um dispositivo DTE (data terminal equipment) em um lado da conexão e um dispositivo DCE (data communications equipment) no outro lado. A conexão entre os dois DCEs é a rede de transmissão do provedor de serviços de WAN. O CPE, geralmente um roteador, é o DTE. Outros exemplos de DTE podem ser um terminal, um computador, uma impressora ou um fax. O DCE, geralmente um modem ou CSU/DSU, é o dispositivo usado para converter os dados de usuários do DTE em uma forma aceitável para o enlace de transmissão do provedor de serviços de WAN. Esse sinal é recebido no DCE remoto, que o decodifica novamente em uma seqüência de bits. Em seguida, essa seqüência é sinalizada para o DTE remoto. Foram desenvolvidos diversos padrões que permitem que os DTEs comuniquem-se com os DCEs. A EIA (Electronics Industry Association) e a ITU-T (International Telecommunication Union Telecommunications Standardization Sector) têm sido as mais ativas no desenvolvimento desses padrões.
    • 66 A ITU-T refere-se ao DCE como equipamento de terminação do circuito de dados. A EIA refere- se ao DCE como equipamento de comunicação de dados. A interface DTE/DCE de um determinado padrão define as seguintes especificações: • Mecânicas/físicas – Quantidade de pinos e tipo de conector; • Elétricas – Definem os níveis de tensão do 0 e do 1; • Funcionais – Especificam as funções que são realizadas, atribuindo significados a cada linha de sinalização da interface; • Procedimentais – Especificam a seqüência de eventos para transmissão de dados. Se dois DTEs precisam estar conectados entre si, como dois computadores ou dois roteadores no laboratório, é necessário um cabo especial, chamado modem nulo, para eliminar a necessidade de um DCE. Em conexões síncronas, em que é necessário um sinal de clock, este precisa ser gerado por um dispositivo externo ou por um dos DTEs. A porta serial síncrona de um roteador é configurada como DTE ou DCE, dependendo do cabo conectado, que é DTE ou DCE, de acordo com a configuração do roteador. Se a porta estiver configurada como DTE, que é a configuração default, será necessário um sinal de clock externo gerado pelo CSU/DSU ou por outro dispositivo DCE. O cabo para a conexão DTE - DCE é um cabo de transição serial blindado. A extremidade do roteador do cabo de transição serial blindado pode ser um conector DB-60, que se conecta à porta DB-60 de uma placa de interface WAN. A outra extremidade do cabo de transição serial está disponível com o conector apropriado para o default a ser usado. Geralmente, o provedor de WAN ou o CSU/DSU indicam o tipo desse cabo. Os dispositivos Cisco suportam os padrões seriais EIA/TIA-232, EIA/TIA-449, V.35, X.21 e EIA/TIA-530. Para suportar densidades mais altas em um formato menor, a Cisco lançou um cabo Smart Serial. A extremidade da interface do roteador do cabo Smart Serial é um conector de 26 pinos, significativamente mais compacto do que o conector DB-60.
    • 67 3.1.5 Encapsulamento HDLC Inicialmente, as comunicações seriais baseavam-se em protocolos orientados a caracteres. Os protocolos orientados a bits eram mais eficientes, mas eram proprietários. Em 1979, a ISO definiu o HDLC como default de protocolo da camada de enlace orientado a bits, que encapsula os dados em enlaces de dados seriais síncronos. Essa padronização levou outros comitês a adotarem e estenderem o protocolo. Desde 1981, a ITU-T desenvolveu uma série de protocolos derivados do HDLC. Os exemplos de protocolos derivativos a seguir são chamados de protocolos de acesso a enlaces: • LAPB (Link Access Procedure, Balanced) para X.25; • LAPD (Link Access Procedure on the D channel) para ISDN; • LAPM (Link Access Procedure for Modems) e PPP para modems; • LAPF (Link Access Procedure for Frame Relay) para Frame Relay. O HDLC usa transmissão serial síncrona, fornecendo comunicação livre de erros entre dois pontos. O HDLC define uma estrutura de quadros de camada 2, que proporciona controle de fluxo e controle de erro, usando confirmações e um esquema de janelamento. Cada quadro tem o mesmo formato, quer seja um quadro de dados ou um quadro de controle. O HDLC default não suporta de maneira inerente vários protocolos em um único enlace, já que ele não tem uma forma de indicar qual protocolo está sendo transportado. A Cisco oferece uma versão proprietária do HDLC. O quadro HDLC da Cisco usa um campo "tipo" proprietário, que funciona como campo de protocolo. Esse campo permite que vários protocolos da camada de rede compartilhem o mesmo enlace serial. HDLC é o protocolo default de camada 2 das interfaces seriais dos roteadores Cisco. O HDLC define os seguintes três tipos de quadros, cada um com um diferente formato do campo de controle: • Quadros de informação (I-frames) – Transportam os dados a serem transmitidos para a estação. Adicionalmente, existe controle de fluxo e erro, e os dados podem ser adicionados por piggybacking a um quadro de informações.
    • 68 • Quadros de supervisão (S-frames) – Fornecem mecanismos de solicitação/resposta quando o piggybacking não é usado. • Quadros não-numerados (U-frames) – Fornecem funções suplementares de controle de enlaces, tais como configuração da conexão. O campo do código identifica o tipo do quadro não numerado. Os primeiros um ou dois bits do campo de controle servem para identificar o tipo de quadro. No campo de controle de um quadro de informações (I), o número da seqüência de envio refere-se ao número do quadro a ser enviado a seguir. O número da seqüência de recebimento fornece o número do quadro a ser recebido a seguir. Tanto o remetente quanto o destinatário mantêm números de seqüência de envio e recebimento. 3.1.6 Configurando o encapsulamento HDLC O método default de encapsulamento usado pelos dispositivos Cisco em linhas seriais síncronas é o Cisco HDLC. Se a interface serial estiver configurada com outro protocolo de encapsulamento e este precisar ser mudado para HDLC, entre no modo de configuração da interface serial. Em seguida, digite o comando encapsulation hdlc, para especificar o protocolo de encapsulamento da interface. O Cisco HDLC é um protocolo ponto-a-ponto, que pode ser usado em linhas alugadas (leased lines) entre dois dispositivos Cisco. Ao comunicar-se com um dispositivo não Cisco, o PPP síncrono é uma opção mais viável. 3.1.7 Solucionando problemas de uma interface serial A saída do comando show interfaces serial exibe informações específicas das interfaces seriais. Quando o HDLC está configurado, a saída deve mostrar "Encapsulation HDLC". Quando o PPP está configurado, deve-se ver "Encapsulation PPP" na saída.
    • 69 Cinco possíveis estados de problema podem ser identificados na linha de status da interface na exibição de show interfaces serial:
    • 70
    • 71
    • 72 • Serial x is down, line protocol is down – (Serial x está inativa, o protocolo de linha está inativo) • Serial x is up, line protocol is down – (Serial x está ativa, o protocolo de linha está inativo) • Serial x is up, line protocol is up (looped) – (Serial x está ativa, o protocolo de linha está ativo (em loop)) • Serial x is up, line protocol is down (disabled) – (Serial x está ativo, o protocolo de linha está inativo (desativado)) • Serial x is administratively down, line protocol is down – (Serial x está administrativamente inativa, o protocolo de linha está inativo) O comando show controllers é outra importante ferramenta de diagnóstico ao solucionar problemas das linhas seriais. A saída de show controllers indica o estado dos canais da interface e se um cabo está conectado a ela.
    • 73 Na figura acima, a interface serial 0/0 tem um cabo DTE V.35 conectado a ela. A sintaxe do comando varia, dependendo da plataforma. No caso das interfaces seriais dos roteadores Cisco da série 7000, use o comando show controllers cbus. Se a saída da interface elétrica for indicada por UNKNOWN (DESCONHECIDA), em vez de V.35, EIA/TIA-449 ou algum outro tipo de interface elétrica, provavelmente o problema é um cabo conectado de forma inadequada. Também é possível que haja um problema nos fios internos da placa. Se a interface elétrica for desconhecida, a exibição correspondente do comando show interfaces serial <X> mostrará que a interface e o protocolo da linha estão inativos. A seguir estão alguns comandos de depuração que são úteis para solucionar problemas de WAN e seriais: • debug serial interface – Verifica se o número de pacotes de keepalive está aumentando. Se não estiver, existe um possível problema de temporização na placa da interface ou na rede. • debug arp – Indica se o roteador está enviando informações ou aprendendo sobre os roteadores (com pacotes ARP) do outro lado da nuvem WAN. Use este comando quando alguns nós de uma rede TCP/IP estiverem respondendo, mas outros não. • debug frame-relay lmi – Obtém informações da LMI (Local Management Interface), que são úteis para determinar se um switch Frame Relay e um roteador estão enviando e recebendo pacotes LMI. • debug frame-relay events – Determina se estão ocorrendo trocas entre um roteador e um switch Frame Relay. • debug ppp negotiation – Mostra os pacotes PPP (protocolo ponto-a-ponto) transmitidos durante a inicialização do PPP, quando as opções do PPP são negociadas. • debug ppp packet – Mostra os pacotes PPP que estão sendo enviados e recebidos. Este comando exibe dumps de pacotes em baixo nível. • debug ppp – Mostra erros de PPP, tais como quadros ilegais ou malformados, associados à negociação e à operação da conexão PPP. • debug ppp authentication – Mostra as trocas de pacotes CHAP (Challenge Handshake Authentication Protocol) e PAP (Password Authentication Protocol) do PPP.
    • 74 CUIDADO: A depuração da saída recebe alta prioridade no processo da CPU e pode tornar o sistema inutilizável. Por essa razão, os comandos de depuração só devem ser usados para solucionar problemas específicos ou durante as sessões de solução de problemas com o pessoal de suporte técnico da Cisco. É uma boa prática usar os comandos de depuração durante períodos de baixo tráfego na rede e quando a quantidade de usuários online for mínima. A depuração durante esses períodos diminui a probabilidade de que a sobrecarga de processamento dos comandos de depuração afete a utilização do sistema. 3.2 Autenticação PPP 3.2.1 Arquitetura em camadas do PPP O PPP usa uma arquitetura em camadas. Uma arquitetura em camadas é um modelo, projeto ou planta lógica que ajuda na comunicação entre camadas interconectadas. O modelo OSI (Open System Interconnection) é a arquitetura em camadas usada em sistemas de redes. O PPP fornece um método para encapsular datagramas multiprocolos através de um enlace ponto-a-ponto e usa a camada de enlace para testar a conexão. Portanto, o PPP é composto de dois sub-protocolos: • Protocolo de controle do enlace – Usado para estabelecer o enlace ponto-a-ponto.
    • 75 • Protocolo de controle da rede – Usado para configurar os vários protocolos de camadas da rede. O PPP pode ser configurado nos seguintes tipos de interfaces físicas: • Serial assíncrona; • Serial síncrona; • HSSI (High-Speed Serial Interface); • Integrated Services Digital Network (ISDN) O PPP usa o LCP (Link Control Protocol) para negociar e configurar as opções de controle do enlace de dados da WAN. O PPP usa o componente NCP (Network Control Protocol) para encapsular e negociar opções para vários protocolos de camada da rede. O LCP fica por cima da camada física e é usado para estabelecer, configurar e testar a conexão do enlace de dados. O PPP também usa o LCP para entrar em acordo automaticamente sobre as opções de formato de encapsulamento, tais como: • Autenticação – As opções de autenticação exigem que o lado do enlace que faz a chamada insira informações para ajudar a garantir que o usuário obtenha permissão do administrador de rede para fazer a chamada. Os roteadores adjacentes trocam mensagens de autenticação. Duas opções de autenticação são o PAP e o CHAP. • Compressão – As opções de compressão aumentam o throughput efetivo das conexões PPP, reduzindo a quantidade de dados no quadro que precisam viajar através do enlace. O protocolo descomprime o quadro no destino. Dois protocolos de compressão disponíveis nos roteadores Cisco são o Stacker e o Predictor. • Detecção de erros – Os mecanismos de detecção de erros com o PPP permitem que um processo identifique condições de falha. As opções Quality e Magic Number ajudam a garantir um enlace de dados confiável e sem loops. • Multilink – O Cisco IOS versão 11.1 ou posterior suporta PPP multilink. Essa alternativa oferece balanceamento de carga nas interfaces do roteador usadas pelo PPP. • Retorno de chamada do PPP – Para aprimorar ainda mais a segurança, o Cisco IOS versão 11.1 oferece retorno de chamada pelo PPP. Com essa opção do LCP, um roteador Cisco pode atuar como cliente de retorno de chamada ou como servidor de retorno de chamada. O cliente efetua a chamada inicial, solicita que ela seja retornada e encerra essa chamada inicial. O roteador de retorno de chamada responde à chamada inicial e efetua a chamada de retorno para o cliente, com base nas declarações da sua configuração.
    • 76 O LCP também realiza o seguinte: • Trata limites variáveis de tamanho de pacote; • Detecta erros comuns de configuração; • Encerra o enlace; • Determina quando um enlace está funcionando corretamente ou quando está falhando. O PPP permite que vários protocolos de camada de rede operem no mesmo enlace de comunicação. Para cada protocolo de camada de rede utilizado, é fornecido um diferente NCP (Network Control Protocol). Por exemplo, o IP (Internet Protocol) usa o IPCP (IP Control Protocol) e o IPX (Internetwork Packet Exchange) usa o IPXCP (Novell IPX Control Protocol). Os NCPs incluem campos funcionais que contêm códigos padronizados, para indicar o tipo de protocolo de camada de rede encapsulado pelo PPP. Os campos de um quadro PPP são os seguintes: • Flag – Indica o começo ou o fim de um quadro e consiste na seqüência binária 01111110. • Endereço – Consiste no endereço de broadcast default, que é a seqüência binária 11111111. O PPP não atribui endereços de estações individuais. • Controle – 1 byte que consiste na seqüência binária 00000011, que requer a transmissão de dados do usuário em um quadro sem seqüência. É oferecido um serviço de enlace sem conexão, semelhante ao LLC (Logical Link Control) tipo 1. • Protocolo – 2 bytes que identificam o protocolo encapsulado no campo de dados do quadro. • Dados – 0 ou mais bytes que contêm o datagrama do protocolo especificado no campo de protocolo. O final do campo de dados é encontrado localizando-se a seqüência de flags de fechamento e deixando-se 2 bytes para o campo de FCS (frame check sequence). O tamanho máximo default do campo de dados é de 1500 bytes. • FCS – Normalmente, 16 bits ou 2 bytes, que se referem aos caracteres extra adicionados ao quadro para fins de controle de erros. 3.2.2 Estabelecendo uma sessão PPP O estabelecimento de uma sessão PPP é feito em três fases. Elas são: estabelecimento de enlace, autenticação e protocolo da camada de rede.
    • 77 Os quadros LCP são usados para realizar o trabalho de cada uma das fases do LCP. As três classes de quadros LCP a seguir são usadas em uma sessão PPP: • Os quadros de estabelecimento de enlace são usados para estabelecer e configurar um enlace; • Os quadros de encerramento de enlace são usados para encerrar um enlace; • Os quadros de manutenção de enlace são usados para gerenciar e depurar um enlace. As três fases de estabelecimento de uma sessão PPP são: • Fase de estabelecimento do enlace – Nesta fase, cada dispositivo PPP envia quadros LCP para configurar e testar o enlace de dados. Os quadros LCP contêm um campo de opção de configuração, que permite que os dispositivos negociem o uso de opções, tais como MTU (Maximum Transmission Unit), compressão de determinados campos PPP e protocolo de autenticação de enlace. Se uma opção de configuração não estiver incluída em um pacote LCP, considera-se o valor default para essa opção de configuração. Antes que qualquer pacote da camada de rede possa ser trocado, o LCP deve abrir a conexão e negociar os parâmetros de configuração. Essa fase estará concluída quando um quadro de confirmação da configuração tiver sido enviado e recebido. • Fase de autenticação (opcional) – Depois que o enlace tiver sido estabelecido e a decisão sobre o protocolo de autenticação tiver sido tomada, o par pode ser autenticado. A autenticação, se usada, ocorre antes do início da fase do protocolo da
    • 78 camada de rede. Como parte dessa fase, o LCP também oferece um teste opcional de determinação da qualidade do enlace. O enlace é testado para determinar se sua qualidade é suficiente para ativar os protocolos da camada de rede. • Fase do protocolo da camada de rede – Nesta fase, os dispositivos PPP enviam pacotes NCP para escolher e configurar um ou mais protocolos da camada de rede, como o IP. Após a configuração de cada um dos protocolos da camada de rede escolhidos, os pacotes de cada protocolo da camada de rede podem ser enviados através do enlace. Se o LCP fechar o enlace, ele informará os protocolos da camada de rede para que estes possam tomar a medida adequada. O comando show interfaces revela os estados do LCP e do NCP sob a configuração do PPP.
    • 79 O enlace do PPP permanece configurado para comunicação, até que ocorra um dos eventos a seguir: • Encerramento do enlace por quadros do LCP ou NCP; • Expiração de um temporizador de inatividade; • Intervenção de um usuário. 3.2.3 Protocolos de autenticação do PPP A fase de autenticação de uma sessão PPP é opcional. Depois do estabelecimento do enlace e da escolha do protocolo de autenticação, o ponto pode ser autenticado. A autenticação, se utilizada, ocorre antes do início da fase de configuração do protocolo da camada de rede. As opções de autenticação exigem que o lado do enlace que efetua a chamada forneça informações de autenticação. Isso ajuda a garantir que o usuário tenha permissão do administrador da rede para efetuar a chamada. Os roteadores adjacentes trocam mensagens de autenticação. Ao configurar a autenticação PPP, o administrador da rede pode selecionar o PAP (Password Authentication Protocol) ou o CHAP (Challenge Handshake Authentication Protocol). Em geral, o CHAP é o protocolo preferido.
    • 80 3.2.4 PAP (Password Authentication Protocol) O PAP fornece um método simples para que um nó remoto estabeleça sua identidade, usando um handshake duplo. Após a conclusão da fase de estabelecimento do enlace PPP, um par nome de usuário/senha é enviado repetidamente pelo nó remoto através do enlace, até que a autenticação seja confirmada ou que a conexão seja encerrada. O PAP não é um protocolo de autenticação forte. As senhas são enviadas pelo enlace em texto claro e não há nenhuma proteção contra reprodução ou contra ataques repetidos de tentativa e erro. O nó remoto controla a freqüência e a temporização das tentativas de registro. 3.2.5 CHAP (Challenge Handshake Authentication Protocol) O CHAP é usado na inicialização de um enlace e verifica periodicamente a identidade do nó remoto usando um handshake triplo. Ele é realizado no estabelecimento inicial do enlace e é repetido durante o tempo em que o enlace está ativo. Após a conclusão da fase de estabelecimento do enlace PPP, o roteador local envia uma mensagem de "desafio" ao nó remoto. O nó remoto responde com um valor calculado, usando uma função hash de direção única, que geralmente é MD5 (Message Digest 5). Essa resposta baseia-se na senha e na mensagem de desafio. O roteador local verifica a resposta, comparando-a com seu próprio cálculo do valor hash esperado. Se os valores hash coincidirem, a autenticação é confirmada; caso contrário, a conexão é encerrada imediatamente. O CHAP oferece proteção contra ataques de reprodução, através do uso de um valor de desafio variável, que é exclusivo e imprevisível. Como o desafio é exclusivo e aleatório, o valor
    • 81 hash resultante também é exclusivo e aleatório. O uso de repetidos desafios visa a limitar o tempo de exposição a um determinado ataque. O roteador local (ou outro servidor de autenticação) controla a freqüência e a temporização dos desafios. 3.2.6 Processo de encapsulamento e autenticação do PPP Ao usar o comando encapsulation ppp, pode-se adicionar opcionalmente a autenticação PAP ou CHAP. Se nenhuma autenticação for especificada, a sessão PPP é iniciada imediatamente. Se a autenticação for exigida, o processo passa pelas seguintes etapas: • O método de autenticação é determinado. • O banco de dados local ou o servidor de segurança (que tem um banco de dados de nomes de usuários e senhas) são verificados para determinar se o nome de usuário e a senha fornecidos correspondem. • O processo verifica a resposta de autenticação devolvida pelo banco de dados local. Se a resposta é positiva, a sessão PPP é iniciada. Se é negativa, a sessão é encerrada.
    • 82
    • 83 3.3 Configurando o PPP 3.3.1 Introdução à configuração do PPP Os aspectos configuráveis do PPP incluem métodos de autenticação, compressão, detecção de erros e o suporte ou não a multilink. A seção a seguir descreve as diferentes opções de configuração do PPP. Os roteadores Cisco que usam encapsulamento PPP podem incluir as opções de configuração de LCP descritas na figura
    • 84 . 3.3.2 Configurando o PPP O exemplo a seguir ativa o encapsulamento PPP na interface serial 0/0: Router#configure terminal Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp É possível configurar a compressão de software ponto-a-ponto em interfaces seriais que usam o encapsulamento PPP. A compressão é realizada por software e pode afetar significativamente o desempenho do sistema. A compressão não é recomendável se a maior parte do tráfego for constituída de arquivos comprimidos.
    • 85 Para configurar a compressão no PPP, digite os seguintes comandos: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#compress [predictor | stac] Digite o seguinte para monitorar os dados descartados no enlace e evitar o loop de quadros: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp quality percentage Os comandos a seguir realizam o balanceamento de carga através de vários enlaces: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp multilink 3.3.3 Configurando a autenticação PPP O procedimento descrito na tabela descreve como configurar o encapsulamento PPP e os protocolos de autenticação PAP/CHAP.
    • 86 Uma configuração correta é essencial, já que o PAP e o CHAP usarão esses parâmetros para autenticação. A figura é um exemplo de configuração de autenticação PAP de duas direções. Os dois roteadores autenticam e são autenticados e, portanto, os comandos de autenticação PAP espelham um ao outro. O nome do usuário e a senha do PAP enviados por um roteador devem corresponder àqueles especificados no comando username name password passworddo outro roteador. O PAP fornece um método simples para que um nó remoto estabeleça sua identidade, usando um handshake duplo. Isso é feito somente no estabelecimento inicial do enlace. O nome do host em um roteador deve corresponder ao nome do usuário configurado no outro roteador. As senhas também precisam coincidir. O CHAP é usado para verificar periodicamente a identidade do nó remoto, usando um handshake triplo. O nome do host em um roteador deve corresponder ao nome do usuário configurado no outro roteador. As senhas também precisam coincidir. Isso é feito no momento
    • 87 do estabelecimento inicial do enlace e pode ser repetido a qualquer momento, depois que o enlace tiver sido estabelecido. 3.3.4 Verificando a configuração do encapsulamento PPP serial Use o comando show interfaces serial para verificar a configuração adequada do encapsulamento HDLC ou PPP. A saída do comando na figura ilustra uma configuração PPP. Quando o HDLC estiver configurado, a saída do comando show interfaces serial deve indicar "Encapsulation HDLC". Quando o PPP estiver configurado, os estados de seus LCP e NCP podem ser verificados com o comando show interfaces serial.
    • 88 A figura lista os comandos usados ao ativar, configurar e verificar o PPP. 3.3.5 Solucionando problemas da configuração do encapsulamento serial O comando debug ppp authentication exibe a seqüência de troca de autenticação. A figura ilustra a saída do roteador esquerdo durante a autenticação CHAP com o roteador da direita quando debug ppp authentication está ativado. Com a autenticação dupla configurada, um roteador autentica o outro. Aparecem mensagens tanto para o processo de autenticar como para o processo de ser autenticado. Use o comando debug ppp authentication para exibir a seqüência de troca enquanto ela ocorre.
    • 89 A figura destaca a saída do roteador para uma autenticação PAP dupla. O comando debug ppp é usado para exibir informações sobre a operação do PPP. A forma no desse comando desativa a saída da depuração. Router#debug ppp {authentication | packet | negotiation | error | chap} Router#no debug ppp {authentication | packet | negotiation | error | chap} Resumo Devem ter sido compreendidos os importantes conceitos a seguir: • Multiplexação por divisão de tempo; • Ponto de demarcação de uma WAN; • Definição e funções do DTE e do DCE; • Desenvolvimento do encapsulamento HDLC; • Utilização do comando encapsulation hdlc para configurar o HDLC; • Solução de problemas de uma interface serial, usando os comandos show interface e show controllers; • Vantagens da utilização do protocolo PPP; • Funções do LCP (Link Control Protocol) e do NCP (Network Control Protocol), componentes do PPP; • As partes de um quadro PPP; • As três fases de uma sessão PPP; • Diferença entre PAP e CHAP; • Etapas do processo de autenticação do PPP; • As várias opções de configuração do PPP;
    • 90 • Como configurar o encapsulamento PPP; • Como configurar a autenticação CHAP e PAP; • Utilização de show interface para verificar o encapsulamento serial; • Solução de problemas da configuração do PPP, usando o comando debug ppp. Módulo 04 – ISDN e DDR Visão Geral ISDN (Integrated Services Digital Network) é uma rede que fornece conectividade digital fim-a- fim, oferecendo suporte a uma ampla gama de serviços, como voz e dados. O ISDN permite que vários canais digitais operem simultaneamente através dos mesmos cabos comuns de telefone usados para linhas analógicas, mas transmitindo um sinal digital em vez de analógico. A latência em uma linha ISDN é muito mais baixa do que em uma linha analógica. DDR (Dial-on-Demand Routing) é uma técnica desenvolvida pela Cisco, que permite a utilização das linhas telefônicas existentes para formar uma rede de longa distância (WAN), em vez de usar linhas dedicadas independentes. As linhas telefônicas comutadas públicas (PSTNs) fazem parte desse processo. DDR é usado quando não há necessidade de uma conexão constante, reduzindo, assim, os custos. DDR define o processo para que um roteador se conecte usando uma rede de discagem (dial-up) quando houver tráfego a ser enviado e se desconecte quando a transferência for concluída. Ao concluírem este módulo, os alunos deverão ser capazes de:
    • 91 • Definir os padrões ISDN usados para endereçamento, conceitos e sinalização; • Descrever como o ISDN usa as camadas física e de enlace; • Listar as interfaces e os pontos de referência do ISDN; • Configurar a interface ISDN do roteador; • Determinar o tráfego permitido ao se configurar DDR; • Configurar rotas estáticas para DDR; • Escolher o tipo correto de encapsulamento para DDR; • Determinar e aplicar uma lista de acesso que afete o tráfego DDR; • Configurar as interfaces do discador. 4.1 Conceitos de ISDN 4.1.1 Introdução ao ISDN Há várias tecnologias WAN usadas para fornecer acesso à rede a partir de locais remotos. Uma dessas tecnologias é ISDN. O ISDN pode ser usado como solução para os problemas de pequena largura de banda enfrentados por pequenos escritórios ou usuários de discagem com os serviços telefônicos de discagem tradicionais. PSTN tradicional baseava-se em uma conexão analógica entre as instalações do cliente e a estação comutadora local, também chamada loop local. Os circuitos analógicos introduzem limitações na largura de banda que pode ser obtida no loop local. Restrições do circuito não permitem larguras de banda analógicas superiores a 3000 Hz, aproximadamente. A tecnologia ISDN permite utilizar dados digitais no loop local, oferecendo melhores velocidades de acesso aos usuários remotos.
    • 92 As empresas telefônicas desenvolveram o ISDN com a intenção de criar uma rede totalmente digital. O ISDN permite que sinais digitais sejam transmitidos através do cabeamento telefônico existente. Isso tornou-se possível quando os switches das companhias telefônicas foram atualizados para suportar sinais digitais. Geralmente, o ISDN é usado para telecomutar e ligar em rede escritórios pequenos e remotos à rede local corporativa. As companhias telefônicas desenvolveram o ISDN como parte de um esforço para padronizar os serviços aos assinantes. Isso incluiu a UNI (User-Network Interface), mais conhecida como loop local. Os padrões ISDN definem os esquemas de configuração de chamada e de hardware para a conectividade digital fim-a-fim. Esses padrões ajudam a atingir o objetivo de conectividade mundial, garantindo que as redes ISDN comuniquem-se facilmente umas com as outras. Em uma rede ISDN, a função de digitalização é realizada na localidade do usuário e não na companhia telefônica. O ISDN traz a conectividade digital para as instalações locais. A lista a seguir mostra alguns dos benefícios do ISDN: • Transporta uma variedade de sinais de tráfego do usuário, como dados, voz e vídeo; • Oferece configuração de chamada muito mais rápida do que as conexões por modem; • Os canais B oferecem uma taxa de transferência de dados muito mais rápida do que as dos modems; • Os canais B são apropriados para enlaces negociados PPP (Point-to-Point Protocol). O ISDN é um serviço versátil, capaz de transportar tráfego de voz, vídeo e dados. É possível usar vários canais para transportar diferentes tipos de tráfego através de uma única conexão. O ISDN usa sinalização fora de banda, o delta (canal D), para configuração de chamada e sinalização. Para fazer uma chamada telefônica normal, o usuário disca o número, inserindo um algarismo de cada vez. Quando todos os algarismos são recebidos, a chamada ao usuário remoto pode ser efetuada. O ISDN fornece os algarismos para o switch às taxas do canal D, reduzindo, assim, o tempo de configuração da chamada. Ele também oferece maior largura de banda do que uma conexão discada tradicional de 56 kbps. O ISDN usa canais portadores (bearer), também chamados canais B, como caminhos limpos para os dados. Cada canal B fornece 64 kbps de largura de banda. Com vários canais B, o ISDN oferece maior largura de banda para as conexões WAN do que alguns serviços alugados. Uma conexão ISDN com dois canais B fornece uma largura de banda utilizável total de 128 kbps. Cada canal B do ISDN pode fazer uma conexão serial independente com qualquer outra localidade da rede ISDN. Como o PPP opera tanto nos enlaces síncronos como assíncronos, as linhas ISDN podem ser usadas em conjunto com o encapsulamento do PPP.
    • 93 4.1.2 Padrões e métodos de acesso do ISDN O trabalho com os padrões para o ISDN começou no final da década de 1960. Um conjunto abrangente de recomendações ISDN foi publicado em 1984 e é continuamente atualizado pela ITU-T (International Telecommunication Union Telecommunications Standardization Sector), anteriormente conhecida como CCITT (Consultative Committee for International Telegraph and Telephone). Os padrões ISDN são um conjunto de protocolos que abrangem as comunicações de dados e telefonia digital. A ITU-T agrupa e organiza os protocolos ISDN de acordo com os seguintes tópicos gerais: • Protocolos E – Recomendam padrões de rede de telefonia para o ISDN. Por exemplo, o protocolo E.164 descreve o endereçamento internacional do ISDN. • Protocolos I – Tratam de conceitos, terminologia e métodos gerais. A série I.100 inclui conceitos ISDN gerais e a estrutura de outras recomendações da série I. A I.200 trata de aspectos de serviço do ISDN. A I.300 descreve aspectos de rede. A I.400 descreve a maneira como a UNI é fornecida. • Protocolos Q – Abordam a maneira como a comutação e a sinalização devem operar. O termo sinalização, neste contexto, significa o processo de estabelecer uma chamada ISDN. Os padrões ISDN definem dois tipos principais de canais, cada um com uma taxa de transmissão diferente. O canal portador, ou canal B, é definido como um caminho digital limpo de 64 kbps. É denominado limpo porque pode ser usado para transmitir qualquer tipo de dados digitalizados em modo full-duplex. Por exemplo, uma chamada de voz digitalizada pode ser transmitida em um único canal B. O segundo tipo de canal é conhecido como canal delta, ou canal D. Ele pode ter 16 kbps para o BRI (Basic Rate Interface) ou 64 kbps para o PRI (Primary Rate Interface).
    • 94 O canal D é usado para transportar informações de controle do canal B. Quando se estabelece uma conexão TCP, há uma troca de informações conhecida como configuração da conexão. Essas informações são trocadas pelo caminho em que os dados serão transmitidos. Tanto as informações de controle quanto os dados compartilham o mesmo caminho. Isso é chamado sinalização dentro da banda. Entretanto, o ISDN usa um canal independente para as informações de controle, o canal D. Isso é chamado sinalização fora da banda. O ISDN especifica dois métodos de acesso default, BRI e PRI. Uma única interface BRI ou PRI fornece um conjunto multiplexado de canais B e D. A BRI usa dois canais B de 64 kbps mais um canal D de 16kbps. A BRI opera em muitos roteadores Cisco. Como ela usa dois canais B e um canal D, às vezes é conhecida como 2B+D. Os canais B podem ser usados para transmissão de fala digitalizada. Nesse caso, são usados métodos especializados para codificação da voz. Além disso, os canais B também podem ser usados para o transporte de dados a velocidades relativamente altas. Neste modo, as informações são transportadas em formato de quadro, usando HDLC ou PPP como o protocolo da camada 2. O PPP é mais robusto que o HDLC porque fornece um mecanismo para autenticação e negociação da configuração de enlaces e protocolos compatíveis. O ISDN é considerado uma conexão comutada por circuito. O canal B é a unidade elementar da comutação por circuito. O canal D transporta mensagens de sinalização, como configuração e encerramento de chamadas, para controlar as chamadas dos canais B. O tráfego no canal D emprega o protocolo LAPD (Link Access Procedure on the D Channel). O LAPD é um protocolo da camada de enlace baseado no HDLC. Na América do Norte e no Japão, o PRI oferece 23 canais B de 64 kbps e um canal D de 64 kbps. Um PRI oferece o mesmo serviço de uma conexão T1 ou DS1. Na Europa e em praticamente todos os outros países, o PRI oferece 30 canais B e um canal D, fornecendo o mesmo nível de serviço de um circuito E1. O PRI usa uma DSU/CSU (Data Service Unit/Channel Service Unit) para as conexões T1/E1. 4.1.3 Modelo em três camadas e protocolos ISDN O ISDN utiliza um conjunto de padrões da ITU-T que abrange as camadas física, de enlace e de rede do modelo de referência OSI: • As especificações da camada física do ISDN BRI e PRI estão definidas em I.430 e I.431 da ITU-T, respectivamente. • A especificação do enlace de dados do ISDN está baseada no LAPD e está formalmente especificada nos seguintes itens:
    • 95 • Q.920 da ITU-T; • Q.921 da ITU-T; • Q.922 da ITU-T; • Q.923 da ITU-T. • A camada de rede do ISDN está definida no Q.930 da ITU-T, também conhecido como I.450, e no Q.931 da ITU-T, também conhecido como I.451. Esses padrões especificam conexões comutadas por circuito, comutadas por pacotes e de usuário para usuário. O serviço BRI é fornecido por um loop local de cobre, que tradicionalmente transporta o serviço telefônico analógico. Embora haja apenas um caminho físico para um BRI, há três caminhos de informação independentes, 2B+D. As informações dos três canais são multiplexadas nesse caminho físico único. Os formatos dos quadros da camada física do ISDN, ou camada 1, são diferentes, dependendo se o quadro está sendo recebido ou transmitido. Se o quadro está sendo transmitido, ele é enviado do terminal para a rede. Quadros que estão sendo transmitidos usam o formato de quadro TE. Se o quadro está sendo recebido, ele é enviado da rede para o terminal. Quadros que estão sendo recebidos usam o formato de quadro TE. Se o quadro está entrando, ele é enviado da rede para o terminal. Quadros que estão entrando usam o formato de quadro NT. Cada quadro contém duas amostras de quadro, cada uma contendo o seguinte: • 8 bits do canal B1; • 8 bits do canal B2; • 4 bits do canal D; • 6 bits de sobrecarga (overhead). Os quadros do ISDN BRI contêm 48 bits. 4000 quadros desse tipo são transmitidos por segundo. Cada canal B (B1 e B2) tem uma capacidade de 2*(8*4000) = 64 kbps. O canal D tem uma capacidade de 4*4000 = 16 kbps. Ele é responsável por 144 kbps da taxa de bits total da interface física do ISDN BRI, que é de 192 kbps. O resto da taxa de dados são os bits de sobrecarga (overhead) necessários para a transmissão. Os bits de sobrecarga (overhead) de um quadro da camada física ISDN são usados da seguinte maneira: • Bit de enquadramento – Fornece a sincronização. • Bit de balanceamento de carga – Ajusta o valor médio de bits. • Eco dos bits anteriores do canal D – Usado para a resolução de disputas, quando vários terminais de um barramento passivo disputam um canal. • Bit de ativação – Ativa os dispositivos.
    • 96 • Bit reserva – Não atribuído. Observe que a taxa de bits física da interface BRI é de 48*4000 = 192 kbps. A taxa efetiva é de 144 kbps = 64 kbps + 64 kbps + 16 kbps (2B+D). A camada 2 do canal de sinalização ISDN é LAPD. O LAPD é semelhante ao HDLC. O LAPD é usado no canal D para garantir que as informações de controle e sinalização estejam sendo recebidas e fluindo corretamente. Os campos de controle e de flag do LAPD são idênticos aos do HDLC. O campo de endereço do LAPD tem 2 bytes de comprimento. O primeiro byte do campo de endereço contém o SAPI (Service Access Point Identifier), que identifica o portal no qual os serviços LAPD são fornecidos à camada 3. O bit de comando/resposta (C/R) indica se o quadro contém um comando ou uma resposta. O segundo byte contém o TEI (Terminal Endpoint Identifier). Cada equipamento terminal nas instalações do cliente precisa de um identificador exclusivo. O TEI pode ser atribuído estaticamente na instalação ou pode ser atribuído dinamicamente pelo switch quando o equipamento for iniciado. Se o TEI for atribuído estaticamente durante a instalação, ele será um número de 0 a 63. Os TEIs atribuídos dinamicamente variam de 64 a 126. Um TEI igual a 127, ou somente 1s, indica um broadcast. 4.1.4 Funções da ISDN Devem ocorrer várias trocas para que um roteador conecte-se a outro usando ISDN. Para estabelecer uma chamada ISDN, usa-se o canal D entre o roteador e o switch ISDN. A sinalização SS7 (Signal System 7) é usada entre os switches dentro da rede do provedor do serviço. O canal D entre o roteador e o switch ISDN está sempre ativo. O Q.921 descreve os processos dos enlaces de dados ISDN do LAPD, que funcionam como os processos da camada 2 do modelo de referência OSI. O canal D é usado para funções de controle de chamadas, tais como configuração, sinalização e encerramento de chamadas. Essas funções são implementadas no protocolo Q.931. O Q.931 especifica funções da camada 3 do modelo de referência OSI. O default Q.931 recomenda uma conexão da camada de rede entre o nó de extremidade terminal e o switch ISDN local, mas não impõe uma recomendação fim-a-fim. Como alguns switches ISDN foram desenvolvidos antes que o Q.931 fosse padronizado, os diversos provedores e switches ISDN usam diversas implementações do Q.931. Como os tipos
    • 97 de switches não são padrão, os roteadores precisam ter comandos em suas configurações que especifiquem o switch ISDN ao qual estão se conectando. A seqüência de eventos a seguir ocorre durante o estabelecimento de uma chamada BRI ou PRI: 1. O canal D é usado para enviar o número chamado ao switch ISDN local. 2. O switch local usa o protocolo de sinalização SS7 para configurar um caminho e transmitir o número chamado ao switch ISDN remoto. 3. O switch ISDN remoto sinaliza o destino através do canal D. 4. O dispositivo NT-1 de destino do ISDN envia ao switch ISDN remoto uma mensagem de conexão da chamada. 5. O switch ISDN remoto usa o SS7 para enviar uma mensagem de conexão da chamada ao switch local. 6. O switch ISDN local conecta um canal B fim-a-fim, deixando o outro canal B disponível para uma nova conversa ou transferência de dados. Os dois canais B podem ser usados simultaneamente.
    • 98 4.1.5 Pontos de referência do ISDN Os padrões ISDN definem grupos funcionais, como dispositivos ou componentes de hardware, que permitem que o usuário acesse os serviços do BRI ou PRI. Os fabricantes podem criar hardware que suporte uma ou mais funções. As especificações ISDN definem quatro pontos de referência que conectam um dispositivo ISDN ao outro. Cada dispositivo de uma rede ISDN realiza uma tarefa específica para facilitar a conectividade fim-a-fim. Para conectar dispositivos que realizam funções específicas, a interface entre os dois dispositivos precisa ser bem definida. Essas interfaces são conhecidas como pontos de referência.
    • 99 Os pontos de referência que afetam o lado do cliente da conexão ISDN são os seguintes: • R – Faz referência à conexão entre um dispositivo TE2 (Terminal Equipment type 2) não compatível com ISDN e um TA (Terminal Adapter), como por exemplo, uma interface serial RS-232. • S – Faz referência aos pontos que se conectam ao dispositivo de comutação do cliente NT2 (Network Termination type 2) e que permitem chamadas entre os vários tipos de equipamentos das instalações do cliente. • T – Eletricamente idêntica à interface S, faz referência à conexão que sai da NT2 e vai para a rede ISDN ou NT1 (Network Termination type 1). • U – Faz referência à conexão entre a NT1 e a rede ISDN de propriedade da companhia telefônica. Como as referências S e T são eletricamente semelhantes, algumas interfaces são indicadas por S/T. Embora realizem funções diferentes, a porta é eletricamente idêntica e pode ser usada para qualquer uma das funções. 4.1.6 Determinando a interface ISDN do roteador Nos Estados Unidos, exige-se que o cliente forneça a NT1. Na Europa e em vários outros países, a companhia telefônica fornece a função NT1 e apresenta uma interface S/T ao cliente. Nessas configurações, não se exige que o cliente forneça um dispositivo NT1 separado ou função NT1 integrada no dispositivo terminal. Equipamentos, tais como módulos e interfaces ISDN do roteador, devem ser solicitados conforme o caso.
    • 100 Para selecionar um roteador Cisco com a interface ISDN apropriada, faça o seguinte: 1. Determine se o roteador suporta ISDN BRI. Na parte traseira do roteador, procure um conector BRI ou uma WIC (WAN Interface Card) BRI. 2. Determine quem deve fornecer a NT1. Uma NT1 termina o loop local para a central da operadora (CO) do provedor de serviços ISDN. Nos Estados Unidos, a NT1 é um CPE (Customer Premise Equipment), o que significa que é de responsabilidade do cliente. Na Europa, normalmente o provedor do serviço fornece a NT1. 3. Se a NT1 for integrada ao CPE, o roteador deve ter uma interface U. Se o roteador tiver uma interface S/T, ele precisará de uma NT1 externa para se conectar ao provedor ISDN. Se o roteador tiver um conector rotulado como BRI, ele já está ativado para ISDN. Com uma interface ISDN nativa já integrada, o roteador é um TE1 e precisará conectar-se a uma NT1. Se o roteador tiver uma interface U, ele também terá uma NT1 integrada.
    • 101 Se o roteador não tiver um conector rotulado como BRI e for de configuração fixa ou não modular, ele precisará usar uma interface serial existente. Com interfaces ISDN não nativas, tais como as interfaces seriais, deve-se conectar um dispositivo TA externo à interface serial para oferecer conectividade BRI. Se o roteador for modular, pode ser possível atualizá-lo para uma interface ISDN nativa, desde que ele tenha um slot disponível. CUIDADO: Um roteador com uma interface U nunca deve ser conectado a uma NT1, pois isso danificaria a interface 4.1.7 Tipos de switch ISDN Os roteadores precisam ser configurados para identificar o tipo de switch com o qual vão comunicar-se. Os tipos de switch ISDN disponíveis variam, dependendo em parte do país no qual o switch está sendo usado. Como conseqüência das diversas implementações do Q.931, o protocolo de sinalização do canal D usado nos switches ISDN varia conforme o fabricante. Os serviços oferecidos pelas prestadoras de ISDN variam consideravelmente conforme o país ou a região. Assim como os modems, cada tipo de switch opera de forma ligeiramente diferente e tem um conjunto específico de requisitos de configuração de chamada. Para poder se conectar a um serviço ISDN, o roteador precisa ser configurado para o tipo de switch usado na central. Essa informação deve ser especificada durante a configuração do roteador, para que ele possa comunicar-se com o switch, efetuar chamadas no âmbito da rede ISDN e enviar dados.
    • 102 Além de conhecer o tipo de switch usado pelo provedor do serviço, também pode ser necessário saber quais SPIDs (Service Profile Identifiers) são atribuídos pela companhia telefônica. Um SPID é um número fornecido pela prestadora de ISDN para identificar a configuração da linha do serviço BRI. Os SPIDs permitem que vários dispositivos ISDN, como equipamentos de dados e voz, compartilhem o loop local. Os SPIDs são exigidos pelos switches DMS-100 e National ISDN-1. Os SPIDs são usados somente na América do Norte e no Japão. A prestadora de ISDN fornece um SPID para identificar a configuração da linha do serviço ISDN. Em muitos casos, ao configurar um roteador, será necessário inserir os SPIDs. Cada SPID aponta para a configuração da linha e para informações de configuração. Os SPIDs são uma série de caracteres que geralmente parecem números de telefone. Os SPIDs identificam cada canal B para o switch da central. Uma vez identificado, o switch vincula os serviços disponíveis à conexão. Lembre-se: normalmente, o ISDN é usada para conectividade de discagem. Os SPIDs são processados quando o roteador conecta-se inicialmente ao switch ISDN. Se os SPIDs forem necessários mas não estiverem configurados corretamente, a inicialização falhará e os serviços ISDN não poderão ser usados. 4.2 Configuração do ISDN 4.2.1 Configurando o ISDN BRI O comando isdn switch-typeswitch-type pode ser configurado no modo de configuração global ou de interface para especificar o switch ISDN do provedor. Se o comando isdn switch-type for executado no modo de configuração global, o tipo de switch ISDN será definido de maneira idêntica para todas as interfaces ISDN. As interfaces individuais podem ser configuradas após o comando de configuração global para refletir um tipo de switch alternativo. Quando o serviço ISDN for instalado, o provedor do serviço emitirá informações sobre o tipo de switch e sobre os SPIDs. Os SPIDs são usados para definir os serviços disponíveis para assinantes ISDN individuais. Dependendo do tipo de switch, pode ser necessário adicionar esses SPIDs à configuração. Os switches ISDN National ISDN-1 e DMS-100 exigem SPIDs para serem configurados, mas o switch AT&T 5ESS não exige. Os SPIDs devem ser especificados ao se usar o simulador ISDN Adtran.
    • 103 O formato dos SPIDs pode variar, dependendo do tipo de switch ISDN e das exigências específicas do provedor. Use os comandos do modo de configuração de interface isdn spid1 e isdn spid2 para especificar o SPID exigido pela rede ISDN quando o roteador iniciar uma chamada para a estação comutadora ISDN local. A configuração do ISDN BRI é um misto de comandos globais e de interface. Para configurar o tipo de switch ISDN, use o comando isdn switch-type no modo de configuração global: Router(config)#isdn switch-typeswitch-type O argumento switch-type indica o tipo do switch do provedor do serviço. Para desativar o switch na interface ISDN, especifique isdn switch-type none. O exemplo a seguir configura o tipo de switch National ISDN-1 no modo de configuração global:
    • 104 Router(config)#isdn switch-type basic-ni Para definir os SPIDs, use o comando isdn spid# no modo de configuração de interface. Esse comando é usado para definir os números de SPIDs que foram atribuídos aos canais B: Router(config-if)#isdn spid1spid-number [ldn] Router(config-if)#isdn spid2spid-number [ldn] O argumento opcional ldn define um número de catálogo de discagem local. Na maioria dos switches, esse número deve coincidir com as informações da parte chamada, que chegam pelo switch ISDN. Os SPIDs são especificados no modo de configuração de interface. Para entrar no modo de configuração de interface, use o comando interface bri no modo de configuração global: Router(config)#interface brislot/port Router(config)#interface bri0/0 Router(config-if)#isdn spid1 51055540000001 5554000 Router(config-if)#isdn spid2 51055540010001 5554001 4.2.2 Configurando o ISDN PRI O ISDN PRI é fornecida por meio de uma linha alugada T1 ou E1. As principais tarefas de configuração do PRI são as seguintes: 1. Especificar o tipo correto de switch PRI que faz interface com o roteador na central do provedor de ISDN. 2. Especificar o controlador T1/E1, o tipo de enquadramento e a codificação da linha referentes às instalações do provedor de ISDN. 3. Definir uma alocação de tempo de grupo do PRI para as instalações T1/E1 e indicar a velocidade utilizada. Como os roteadores conectam-se à PRI usando T1/E1, não existe um comando "interface pri". Em vez disso, a interface física do roteador que se conecta à linha alugada é denominada controlador T1 (ou controlador E1, se estiver sendo usada uma linha E1). Esse controlador precisa ser configurado adequadamente, a fim de se comunicar com a rede da prestadora. Os canais D e B do ISDN PRI são configurados separadamente do controlador, usando-se o comando interface serial. Use o comando isdn switch-type para especificar o switch ISDN usado pelo provedor ao qual o PRI conecta-se. Assim como no caso do BRI, esse comando pode ser emitido globalmente ou no modo de configuração de interface. A tabela mostra os tipos de switch disponíveis para configuração do ISDN PRI:
    • 105 Router(config)#isdn switch-type primary-net5 A configuração de um controlador T1 ou E1 é feita em quatro partes: 1. No modo de configuração global, especifique o controlador e o slot/porta do roteador onde a placa PRI está localizada: Router(config)#controller {t1 | e1} {slot/port} Router(config-controller)# 2. Configure o enquadramento, a codificação da linha e o clock conforme a recomendação do provedor do serviço. O comando framing é usado para selecionar o tipo de quadro usado pelo provedor do serviço PRI. Para T1, use a seguinte sintaxe do comando: Router(config-controller)#framing {sf | esf} Para linhas E1, use o comando framing com as seguintes opções: Router(config-controller)#framing {crc4 | no-crc4} [australia]
    • 106 Use o comando linecode para identificar o método de sinalização da camada física nas instalações digitais do provedor: Router(config-controller)#linecode {ami | b8zs| hdb3} Na América do Norte, usa-se o método de sinalização B8ZS nas instalações de prestadoras de T1. Ele permite 64 kbps totais em cada canal ISDN. Na Europa, geralmente é usada a codificação HDB3. 3. Configure a interface especificada para operação do PRI e a quantidade de alocações de tempo fixas que estão definidas nas instalações digitais do provedor: Router(config-controller)#pri-group [timeslots range] Para a T1, o intervalo de alocações de tempo utilizado vai de 1 a 24. Para a E1, o intervalo de alocações de tempo utilizado vai de 1 a 31. 4. Especifique uma interface para operação do canal D do PRI. A interface é uma interface serial para uma T1/E1 no roteador: Router(config)#interface serial{slot/port: | unit:}{23 | 15} Dentro de uma instalação E1 ou T1, os canais começam a ser numerados a partir de 1. A numeração vai de 1 a 31 na E1 e de 1 a 24 na T1. As interfaces seriais nos roteadores Cisco começam a ser numeradas a partir de 0. Portanto, o canal 16, canal de sinalização da E1, é o canal 15 da interface. O canal 24, canal de sinalização da T1, torna-se o canal 23 da interface. Portanto, a interface serial 0/0:23 refere-se ao canal D de um PRI T1. As sub-interfaces, geralmente usadas com Frame Relay, são designadas por um ponto. Por exemplo, o serial 0/0.16 é uma sub-interface. Não confunda os canais de uma T1 ou E1 com as sub-interfaces. Os canais usam dois pontos em vez de ponto para indicar o número do canal: • S0/0.23 refere-se a uma sub-interface; • S0/0:23 refere-se a um canal. 4.2.3 Verificando a configuração do ISDN É possível usar vários comandos show para verificar se a configuração do ISDN foi implementada corretamente. Para confirmar as operações do BRI, use o comando show isdn status, que permite inspecionar o status das interfaces do BRI. Esse comando pode ser usado após a configuração do ISDN BRI para verificar se o TE1, ou roteador, está comunicando-se corretamente com o switch ISDN. Na saída da figura, os TEIs foram negociados com sucesso e a camada 3 do ISDN está pronta para fazer ou receber chamadas.
    • 107 Verifique se o status da camada 1 é ACTIVE (ATIVO) e se o estado MULTIPLE_FRAME_ESTABLISHED (MÚLTIPLOS QUADROS ESTABELECIDOS) aparece no status da camada 2. Esse comando também exibe a quantidade de chamadas ativas. O comando show isdn active exibe informações da chamada atual, dentre elas: • Número chamado; • Tempo até que a chamada seja desconectada; • Aviso de cobrança; • Unidades de cobrança utilizadas durante a chamada; • Se as informações de aviso de cobrança são fornecidas durante as chamadas ou no final. O comando show dialer exibe informações sobre a interface do discador: • Status da chamada atual; • Valores do temporizador de discagem; • Motivo da discagem; • Dispositivo remoto que está conectado. O comando show interface bri0/0 exibe estatísticas da interface BRI configurada no roteador. Informações específicas de um canal são exibidas colocando-se o número do canal no final do comando. Nesse caso, o comando show interface bri0/0:1 mostra o seguinte: • O canal B está usando encapsulamento PPP. • O LCP fez negociações e está aberto. • Há dois NCPs em execução, o IPCP e o CDPCP (Cisco Discovery Protocol Control Protocol).
    • 108 4.2.4 Solucionando problemas de configuração da ISDN Os seguintes comandos são usados para depurar e solucionar problemas de configuração do ISDN: • O comando debug isdn q921 mostra mensagens da camada de enlace, ou camada 2, no canal D entre o roteador e o switch ISDN. Use este comando se o comando show isdn status não mostrar a camada 1 como ACTIVE (ATIVA) e a camada 2 como MULTIPLE_FRAME_ESTABLISHED (MÚLTIPLOS QUADROS ESTABELECIDOS). • O comando debug isdn q931 mostra a troca de mensagens de configuração e encerramento de chamadas da conexão ISDN da camada 3. • O comando debug ppp authentication exibe as mensagens do protocolo de autenticação PPP, incluindo as trocas de pacotes CHAP (Challenge Handshake Authentication Protocol) e PAP (Password Authentication Protocol). • O comando debug ppp negotiation exibe informações sobre o tráfego e sobre as trocas PPP enquanto os componentes PPP são negociados. Isso inclui as trocas de LCP, autenticação e NCP. Uma negociação PPP bem sucedida abre primeiro o estado LCP, em seguida autentica e, finalmente, negocia o NCP. • O comando debug ppp error exibe erros de protocolo e estatísticas de erro referentes à negociação e operação da conexão PPP. Use o comando debug ppp para solucionar problemas da camada 2 se o comando show isdn status não indicar um problema com o ISDN. 4.3 Configuração DDR 4.3.1 Operação DDR O roteamento de discagem por demanda (DDR) é acionado quando um tráfego que corresponda a um conjunto predefinido de critérios é enfileirado para ser enviado por uma interface habilitada para DDR. O tráfego que faz com que uma chamada DDR seja efetuada é conhecido por tráfego significativo. Uma vez que o roteador tenha transmitido o tráfego significativo, a chamada é encerrada. A chave para uma operação eficiente DDR está na definição do tráfego significativo. O tráfego significativo é definido com o comando dialer-list. As listas de discadores podem permitir que todo o tráfego de um protocolo específico ative um enlace DDR, ou podem consultar uma lista de acesso para ver quais tipos específicos de tráfego devem ativar o enlace. As listas de discadores não filtram o tráfego em uma interface. Mesmo o tráfego que não seja significativo será encaminhado se a conexão ao destino estiver ativa.
    • 109 DDR é implementado nos roteadores Cisco de acordo com as seguintes etapas: 1. O roteador recebe o tráfego, realiza uma procura na tabela de roteamento para determinar se há uma rota até o destino e identifica a interface de saída. 2. Se a interface de saída estiver configurada para DDR, o roteador faz uma procura para determinar se o tráfego é significativo. 3. O roteador identifica as informações de discagem necessárias para fazer a chamada usando um mapa de discadores para acessar o roteador do próximo salto. 4. Em seguida, o roteador verifica se o mapa de discadores está em uso. Se a interface está conectada atualmente ao destino remoto desejado, o tráfego é enviado. Se a interface não está conectada atualmente ao destino remoto, o roteador envia informações de configuração da chamada através do BRI, usando o canal D. 5. Depois que o enlace é estabelecido, o roteador transmite tanto o tráfego significativo quanto o tráfego não significativo. O tráfego não significativo pode incluir dados e atualizações de roteamento. 6. O temporizador de inatividade é iniciado e permanece em funcionamento enquanto não houver tráfego significativo durante o período-limite de inatividade e desconecta a chamada com base na configuração do temporizador de inatividade. A configuração do temporizador de inatividade especifica o tempo durante o qual o roteador deve permanecer conectado se nenhum tráfego significativo é enviado. Uma vez estabelecida
    • 110 uma conexão DDR, todo tráfego para esse destino será permitido. Entretanto, somente o tráfego significativo reinicia o temporizador de inatividade. 4.3.2 Configurando DDR legado DDR legado é um termo usado para definir uma configuração DDR simples, na qual um único conjunto de parâmetros de discagem é aplicado a uma interface. Se forem necessárias várias configurações de discadores exclusivas em uma única interface, devem ser usados perfis de discadores. Para configurar DDR legado, realize as seguintes etapas: • Defina as rotas estáticas; • Especifique o tráfego significativo; • Configure as informações do discador. 4.3.3 Definindo rotas estáticas para DDR Para encaminhar tráfego, os roteadores precisam saber qual rota usar para um determinado destino. Quando se usa um protocolo de roteamento dinâmico, a interface DDR disca para a localidade remota no caso de qualquer atualização de roteamento ou mensagem de "hello" se esses pacotes estiverem definidos como tráfego significativo. Para evitar a ativação freqüente ou constante do enlace DDR, configure as rotas necessárias estaticamente. Para configurar uma rota estática para IP, use o seguinte comando:
    • 111 Router(config)#ip routenet-prefix mask {address | interface} [distance] [permanent] O roteador Central tem uma rota estática até a rede 10.40.0.0 no roteador Home. O roteador Home tem duas rotas estáticas definidas para as duas sub-redes da rede local Central. Se a rede conectada ao roteador Home for uma rede stub, todo o tráfego não local deve ser enviado para a Central. Uma rota default é a melhor escolha para o roteador Home neste caso. Home(config)#ip route 0.0.0.0 0.0.0.0 10.1.0.2 Ao configurar rotas estáticas, considere o seguinte: • Por default, uma rota estática tem precedência sobre uma rota dinâmica, devido à sua menor distância administrativa. Sem configuração adicional, uma rota dinâmica para uma rede será ignorada se uma rota estática para a mesma rede estiver presente na tabela de roteamento. • Para reduzir a quantidade de entradas de rotas estáticas, defina uma rota estática default ou resumida. 4.3.4 Especificando o tráfego significativo para DDR As chamadas DDR são acionadas por tráfego significativo. Esse tráfego pode ser definido como qualquer um dos seguintes itens: • Tráfego IP de um determinado tipo de protocolo; • Pacotes com um determinado endereço origem ou destino; • Outros critérios definidos pelo administrador da rede. Use o comando dialer-listpara identificar o tráfego significativo. A sintaxe do comando é a seguinte:
    • 112 Router(config)#dialer-listdialer-group-numprotocolprotocol-name {permit | deny | listaccess-list-number} O número dialer-group-num é um inteiro entre 1 e 10, que identifica a lista de discadores para o roteador. O comando dialer-list 1 protocol ip permit permite que qualquer tráfego IP acione uma chamada. Em vez de permitir qualquer tráfego IP, uma lista de discadores pode apontar para uma lista de acesso, a fim de especificar exatamente quais tipos de tráfego devem ativar o enlace. A referência à lista de acesso 101 na lista de discadores 2 impede que tráfegos FTP e Telnet ativem o enlace DDR. Qualquer outro pacote IP será considerado significativo e, portanto, iniciará o enlace DDR. 4.3.5 Configurando informações de discadores DDR Há diversas etapas envolvidas no processo de configuração da interface DDR. O PPP é configurado na interface do discador, usando-se os mesmos comandos que habilitam o PPP em uma interface serial. O HDLC é o encapsulamento default de uma interface ISDN em um roteador Cisco, mas a maioria das redes emprega o PPP para conexões comutadas por circuito. Devido a sua robustez, interoperabilidade e recursos adicionais, tais como autenticação, o PPP é o protocolo de enlace de dados utilizado nos canais B da maioria dos roteadores. Para configurar o PPP na interface DDR, use os seguintes comandos:
    • 113 Home(config)#username Central password cisco Home(config)#interface bri0/0 Home(config-if)#encapsulation ppp Home(config-if)#ppp authentication chap Home(config-if)#ip address 10.1.0.1 255.255.255.0 Uma lista de discadores especificando o tráfego significativo para essa interface DDR precisa estar associada à interface DDR. Isso é feito por meio do comando dialer-groupgroup- number: Home(config-if)#dialer-group 1 Nesse comando, group-number especifica o número do grupo de discadores ao qual a interface pertence. O número do grupo pode ser um inteiro de 1 a 10. Esse número deve corresponder ao dialer-list group-number. Cada interface pode ter apenas um grupo de discadores. Entretanto, a mesma lista de discadores pode ser atribuída a várias interfaces, com o comando dialer-group. É necessário especificar as informações de discagem corretas da interface DDR remota. Isso é feito por meio do comando dialer map.
    • 114 O comando dialer map mapeia o endereço do protocolo remoto para um número de telefone. Esse comando é necessário para discar para múltiplas localidades. Router(config-if)#dialer mapprotocol next-hop-address [namehostname] [speed 56 | 64] [broadcast] dial-string Se estiver discando para apenas uma localidade, use um comando dialer string incondicional, que sempre disca o mesmo número de telefone, independentemente do destino do tráfego. Esta etapa é exclusiva de DDR legado. Embora as informações sejam sempre necessárias, as etapas para configurar as informações de destino são diferentes ao se usar perfis de discador em vez de DDR legado. O comando dialer idle-timeoutseconds pode ser usado para especificar a quantidade de segundos de inatividade antes que uma chamada seja desconectada. seconds representa a quantidade de segundos até que uma chamada seja desconectada depois do envio do último pacote significativo. O default é 120. 4.3.6 Perfis de discador DDR legado é limitado, pois a configuração é aplicada diretamente a uma interface física. Como o endereço IP é aplicado diretamente à interface, somente as interfaces DDR configuradas nessa sub-rede específica podem estabelecer uma conexão DDR com essa interface. Isso significa que há uma correspondência um-a-um entre as duas interfaces DDR em cada ponta do enlace. Os perfis de discador removem a configuração da interface que recebe ou efetua as chamadas e somente vinculam a configuração à interface com base nas chamadas individuais. Os perfis de discador permitem que as interfaces físicas assumam características diferentes dinamicamente com base nas exigências das chamadas de entrada ou saída. Os perfis de discador podem fazer tudo o que está indicado a seguir: • Definir encapsulamento e listas de controle de acesso; • Determinar a quantidade mínima ou máxima de chamadas; • Ativar ou desativar recursos.
    • 115 Os perfis de discador ajudam no projeto e na implantação de inter-redes comutadas por circuito mais complexas e escalonáveis, implementando um modelo DDR mais escalonável nos roteadores Cisco e servidores de acesso. Os perfis de discador separam a parte lógica de DDR, tais como a camada de rede, o encapsulamento e os parâmetros do discador, da interface física que efetua ou recebe as chamadas. Utilizando perfis de discador, é possível realizar as seguintes tarefas: • Configurar os canais B de uma interface ISDN com diferentes sub-redes IP. • Usar diferentes encapsulamentos nos canais B de uma interface ISDN. • Definir diferentes parâmetros DDR para os canais B de uma interface ISDN. • Eliminar o desperdício de canais B do ISDN, permitindo que as ISDN BRIs pertençam a vários pools de discadores. Um perfil de discador consiste nos seguintes elementos:
    • 116 • Interface do discador – Uma entidade lógica que usa um perfil de discador por destino. • Pool de discadores – Cada interface de discador faz referência a um pool de discadores, que é um grupo de uma ou mais interfaces físicas associadas a um perfil de discador. • Interfaces físicas – As interfaces de um pool de discadores são configuradas quanto aos parâmetros de encapsulamento e para identificar os pools de discadores aos quais a interface pertence. A autenticação PPP, o tipo de encapsulamento e o PPP multilink são todos configurados na interface física. Como DDR legado, os perfis de discador são ativados quando um tráfego significativo é enfileirado para ser enviado a partir de uma interface DDR. Inicialmente, um pacote significativo é roteado para um endereço IP DDR. Em seguida, o roteador verifica as interfaces configuradas do discador em busca de uma que compartilhe a mesma sub-rede do endereço IP DDR remoto. Se existir alguma, o roteador procura uma interface DDR física não utilizada no pool de discadores. A configuração do perfil do discador é, então, aplicada à interface e o roteador tenta criar a conexão DDR. Quando a conexão é encerrada, a interface é devolvida ao pool de discadores para a próxima chamada. 4.3.7 Configurando perfis de discador É possível configurar várias interfaces de discador em um roteador. Cada interface de discador é a configuração completa para um destino. O comando interface dialercria uma interface de discador e entra no modo de configuração da interface. Para configurar a interface de discador, execute as seguintes tarefas: 1. Configure uma ou mais interfaces de discador, com todos os comandos DDR básicos: • Endereço IP; • Tipo de encapsulamento e autenticação; • Temporizador de inatividade; • Grupo de discadores para tráfego significativo. 2. Configure uma dialer string (cadeia de discador) e um dialer remote-name (nome remoto de discador) para especificar o nome do roteador remoto e o número de telefone para discar para ele. O dialer pool associa essa interface lógica a um pool de interfaces físicas. 3. Configure as interfaces físicas e atribua-as a um pool de discadores, usando o comando dialer pool-member. Uma interface pode ser atribuída a vários pools de discadores, usando vários comandos dialer pool-member. Se existir mais de uma interface física no pool, use a opção priority do comando dialer pool-member para definir a prioridade da interface dentro de um pool de discadores. Se for necessário efetuar várias chamadas e só houver uma interface
    • 117 disponível, o pool de discadores com prioridade mais alta é o que fará a discagem. É possível usar uma combinação de qualquer uma destas interfaces com pools de discadores: • Serial síncrona; • Serial assíncrona; • BRI; • PRI. 4.3.8 Verificando a configuração DDR O comando show dialer interface [BRI] exibe informações no mesmo formato que as estatísticas de DDR legado sobre chamadas de entrada e de saída. A mensagem "Dialer state is data link layer up" sugere que o discador foi ativado corretamente e que a interface BRI 0/0:1 está vinculada ao perfil dialer1. O comando show isdn active exibe informações sobre as chamadas ISDN ativas no momento. Nesta saída, a chamada ISDN está indo para um roteador remoto chamado Seattle. O comando show isdn status exibe informações sobre as três camadas da interface BRI.
    • 118 Nesta saída, a camada 1 do ISDN está ativa, a camada 2 do ISDN foi estabelecida com SPID1 e SPID2 validados e há uma conexão ativa na camada 3. 4.3.9 Solucionando problemas de configuração DDR Há dois tipos principais de problemas de DDR. Ou um roteador não está discando quando deveria ou está discando constantemente quando não deveria. É possível usar vários comandos debug para ajudar a solucionar problemas com uma configuração DDR. Nas linhas a seguir, o sétimo e o oitavo hexadecimais mais significativos indicam o tipo de mensagem. • 0x05 indica uma mensagem de configuração de chamada; • 0x02 indica uma mensagem de andamento de chamada; • 0x07 indica uma mensagem de conexão de chamada; • 0x0F indica uma mensagem de confirmação (ack) de conexão.
    • 119 O comando debug isdn q931 é útil para observar trocas de configuração de chamada, tanto para chamadas de saída como de entrada. O comando debug dialer [events | packets] é útil para solucionar problemas de conectividade DDR. O comando debug dialer events envia uma mensagem para a console, indicando quando um enlace DDR se conectou e o tráfego que fez com que ele se conectasse. Se um roteador não está configurado corretamente para DDR, a saída do comando geralmente indica a origem do problema. Se não houver saída da depuração, o roteador não tem conhecimento de nenhum tráfego significativo. Um discador ou uma lista de acesso configurados incorretamente podem ser o motivo. Nem todos os problemas de DDR fazem com que uma interface deixe de discar. Os protocolos de roteamento podem fazer com que uma interface disque continuamente, mesmo que não haja dados de usuário a enviar. Quando uma interface torna-se ativa e inativa constantemente, diz-se que ela está oscilante. O comando debug dialer packet envia uma mensagem à console toda vez que um pacote é enviado a partir de uma interface DDR. Use esse comando de depuração para ver exatamente qual tráfego é responsável por uma interface DDR oscilante. Se um roteador não estiver conectando-se quando deveria, é possível que a causa seja um problema de ISDN, e não um problema de DDR. O roteador remoto pode ter sido configurado incorretamente ou pode haver um problema com a rede da prestadora ISDN. Use o comando isdn call interface para forçar o roteador local a tentar discar para o roteador remoto. Se os roteadores não podem comunicar-se usando esse comando, a falta de conectividade é um problema do ISDN e não de DDR. Entretanto, se os roteadores podem comunicar-se, tanto a rede tarifada quanto as configurações do ISDN do roteador estão funcionando corretamente.
    • 120 Neste caso, é muito provável que o problema seja um erro na configuração DDR de algum dos roteadores. Em alguns casos, é recomendável reiniciar a conexão entre o roteador e o switch ISDN local. O comando clear interface bri limpa as conexões estabelecidas atualmente na interface e reinicia a interface com o switch ISDN. Esse comando força o roteador a renegociar seus SPIDs com o switch ISDN, sendo, às vezes, necessário depois de mudanças nos comandos isdn spid1 e isdn spid2 de uma interface. Resumo ISDN refere-se a um conjunto de protocolos de comunicação proposto pelas companhias telefônicas para permitir que as redes telefônicas transportem serviços integrados de voz, vídeo e dados. O ISDN permite a comunicação através de canais de comunicação digitais de alta velocidade e alta qualidade. DDR é usado para reduzir os custos de uma linha WAN dedicada para organizações e empresas que não precisam de uma conexão permanente. Também pode ser usado como backup por organizações que usam a linha dedicada para aplicações críticas. Devem ter sido compreendidos os importantes conceitos a seguir: • O ISDN transporta dados, voz e vídeo; • O ISDN usa padrões para endereçamento, conceitos e sinalização; • O ISDN usa as camadas física e de enlace; • Interfaces e pontos de referência para o ISDN; • Configuração de roteadores para o ISDN; • Qual tráfego é permitido ao se configurar DDR; • Rotas estáticas para DDR; • O tipo correto de encapsulamento para DDR; • Listas de acesso que afetam o tráfego DDR; • Interfaces do discador.
    • 121 MODULO 05 – Frame Relay Visão Geral O Frame Relay foi originalmente desenvolvido como uma extensão do ISDN. Ele foi projetado para possibilitar que a tecnologia de circuitos comutados seja transportada em uma rede com comutação de pacotes. A tecnologia tornou-se uma maneira independente e econômica para criar uma WAN. Os comutadores de Frame Relay criam circuitos virtuais para conectar redes locais a uma WAN. A rede Frame Relay existe entre um dispositivo de borda de uma rede local, normalmente um roteador, e o switch do portador. A tecnologia usada pelo portador para transportar os dados entre os switches não é importante para o Frame Relay. A sofisticação da tecnologia exige um conhecimento completo dos termos usados para descrever o funcionamento do Frame Relay. Sem um entendimento firme do Frame Relay, é difícil resolver problemas com o seu desempenho. O Frame Relay já se tornou um dos protocolos de WAN mais largamente utilizados. Uma razão da sua popularidade é que ele é econômico quando comparado com linhas alugadas. Outro motivo da popularidade do Frame Relay é que a configuração dos equipamentos dos usuários em uma rede Frame Relay é muito simples. Este módulo explica como configurar o Frame Relay em um roteador Cisco. As conexões do Frame Relay são criadas pela configuração dos roteadores ou outros dispositivos, para que se comuniquem com o switch Frame Relay. O provedor de serviços geralmente configura o switch Frame Relay. Isto ajuda a manter ao mínimo as tarefas de configuração para o usuário final. Ao concluírem este módulo, os alunos deverão ser capazes de: • Explicar a abrangência e a finalidade do Frame Relay • Discutir a tecnologia do Frame Relay • Comparar as topologias ponto-a-ponto e ponto-a-multiponto • Examinar a topologia de uma rede Frame Relay • Configurar um Circuito Virtual Permanente (PVC) para Frame Relay • Criar um Mapa de Frame Relay em uma rede remota • Explicar as considerações de uma rede de multiacesso e sem broadcast • Descrever a necessidade de sub-interfaces e como configurá-las • Verificar e resolver problemas com uma conexão Frame Relay
    • 122 5.1 Conceitos do Frame Relay 5.1.1 Introdução ao Frame Relay O Frame Relay é um padrão ITU-T (International Telecommunication Union Telecommunications Standardization Sector) e ANSI (American National Standards Institute) O Frame Relay é um serviço WAN orientado a conexões com comutação de pacotes. Ele opera na camada de enlace de dados do modelo OSI. O Frame Relay usa um subconjunto do protocolo HDCL (high-level data-link control) denominado LAPF (Link Access Procedure for Frame Relay). Os quadros transportam dados entre dispositivos de usuários denominados DTE (equipamentos terminal de dados) e os equipamentos DCE (equipamentos de comunicação de dados) na borda da WAN. Originalmente, o Frame Relay foi projetado para permitir que os equipamentos ISDN tivessem acesso aos serviços de comutação de pacotes em um canal B. No entanto, o Frame Relay é agora uma tecnologia independente. Uma rede Frame Relay pode ser de propriedade privada, mas é mais freqüentemente oferecida como um serviço de um provedor público. Tipicamente, ela consiste em vários switches Frame Relay geograficamente espalhados e interligados por linhas de tronco.
    • 123 O Frame Relay freqüentemente é usado para a interconexão de redes locais. Quando esse for o caso, um roteador em cada rede local será o DTE. Uma conexão serial, tal como uma linha alugada T1/E1, ligará o roteador a um switch Frame Relay do provedor no seu ponto de presença mais próximo. O switch Frame Relay é um dispositivo DCE. Os quadros de um DTE serão transportados através da rede e entregues a outros DTEs através dos DCEs. Equipamentos de computação que não estão na rede local também podem enviar dados através de uma rede Frame Relay. Tais equipamentos de computação usarão um dispositivo de acesso ao Frame Relay (FRAD), como DTE. 5.1.2 Terminologia do Frame Relay A conexão através da rede Frame Relay entre dois DTEs é chamada circuito virtual (VC). Os circuitos virtuais podem ser estabelecidas dinamicamente pelo envio de mensagens de sinalização à rede. Em tal caso, eles são denominados circuitos virtuais comutados (SVCs). No entanto, os SVCs não são muito comuns. Geralmente são utilizados circuitos virtuais permanentes (PVCs), que foram pré-configurados pelo provedor. Um VC é criado pelo armazenamento de um mapeamento de porta de entrada para porta de saída na memória de cada switch e, assim, um switch é ligado ao outro até que se identifique um caminho contínuo de uma extremidade do circuito até a outra. Por ter sido projetado para operar em linhas digitais de alta qualidade, o Frame Relay não oferece nenhum mecanismo de recuperação de erros. Se houver um erro em um quadro, conforme detectado por qualquer nó, o quadro será descartado sem notificação. O FRAD ou roteador conectado à rede Frame Relay poderá possuir vários circuitos virtuais ligando-o a vários pontos finais. Por este motivo, ele é uma alternativa muito econômica para uma malha de linhas de acesso. Com esta configuração, cada ponto final só precisa de uma única linha de acesso e uma interface. Surgem mais economias, já que a capacidade da linha de acesso baseia-se na média dos requisitos de largura de banda dos circuitos virtuais, e não no requisito máximo. Os vários circuitos virtuais em uma só linha de acesso podem ser distinguidos porque cada VC possui seu próprio Identificador de Canal de Enlace de Dados (DLCI). O DLCI é armazenado no campo de endereço de cada quadro transmitido. O DCLI normalmente tem apenas significado local e pode ser diferente em cada extremidade de um VC
    • 124 5.1.3 Suporte em camadas da pilha do Frame Relay O Frame Relay funciona ao realizar o seguinte: • Aceita pacotes de dados de um protocolo de camada de uma rede, tal como IP ou IPX • Encapsula-os como os dados de um quadro Frame Relay • Passa-os até a camada física para entrega no fio A camada física é tipicamente EIA/TIA-232, 449 ou 530, V.35 ou X.21. O quadro Frame Relay é um subconjunto do quadro tipo HDLC. Como tal, ele é delimitado com campos de flags. O
    • 125 flag de 1 byte utiliza o padrão de dígitos 01111110. Se a FCS (Frame Check Sequence, seqüência de verificação de quadro) não corresponder aos campos de endereço e de dados na extremidade de recepção, o quadro será descartado sem notificação. Alternativa (Recomendada) A FCS (Frame Check Sequence, seqüência de verificação de quadro) é usada para determinar se ocorreram erros no campo de endereço da camada 2 durante a transmissão. A FCS é calculada antes da transmissão e o resultado é inserido no campo FCS. Na outra extremidade, outro valor para FCS é calculado e comparado com a FCS dentro do quadro. Se o resultado for idêntico, o quadro será processado. Se houver uma diferença, o quadro será descartado. Nenhuma notificação será enviada à origem quando um quadro for descartado. O controle de erros é deixado para as camadas superiores do modelo OSI. 5.1.4 Largura de banda e controle de fluxo do Frame Relay A conexão serial ou link de acesso a uma rede Frame Relay é normalmente uma linha alugada. A velocidade da linha será a velocidade de acesso ou a velocidade da porta. A velocidade das portas é tipicamente de 64 Kbps a 4 Mbps. Alguns provedores oferecem velocidades de até 45 Mbps. Normalmente, há vários PVCs operando no link de acesso, onde cada VC dispõe de uma largura de banda dedicada. Isso é conhecido como CIR (Taxa de Informação Contratada). A CIR é a taxa à qual o provedor de serviços promete aceitar bits no VC. As CIRs individuais normalmente são inferiores à velocidade da porta. No entanto, a soma das CIRs normalmente será superior à velocidade da porta. Às vezes, este é um fator de 2 ou 3. A multiplexação estatística acomoda a natureza intermitente das comunicações entre computadores, já que é raro que todos os canais estejam à taxa máxima de dados simultaneamente. Durante a transmissão de um quadro, cada bit será enviado à velocidade da porta. Por essa razão, é necessário que haja um espaço entre quadros em um VC se a taxa de bits tiver que ser igual à CIR. O switch aceitará quadros dos DTE a velocidades superiores à CIR. Isso efetivamente proporcionará a cada canal uma largura de banda sob demanda de até o máximo da velocidade da porta. Alguns provedores de serviço impõem um limite para os VCs inferior à velocidade da porta. A diferença entre a CIR e o máximo, seja este igual à velocidade da porta ou inferior, é denominada de EIR (Excess Information Rate). O intervalo de tempo sobre o qual as taxas são calculadas é denominado tempo contratado (committed time - Tc). O número de bits prometidos em Tcé a rajada contratada (committed burst - Bc). O número de bits em excesso à rajada contratada, até a velocidade máxima do link de acesso, é a rajada em excesso (excess burst – Be).
    • 126 Embora o switch aceite quadros em excesso da CIR, cada quadro em excesso é marcado no switch pela introdução do valor "1" no bit Elegível para Descarte (DE) dentro do campo do endereço. O switch mantém um contador de bits para cada VC. Um quadro de entrada é marcado como DE se a sua entrada coloca o contador acima de Bc. Um quadro é descartado se a sua entrada coloca o contador acima de Bc + Be. Ao final de cada Tc segundos, o contador é zerado. O contador não pode ter um valor negativo, de modo que o tempo de inatividade não pode ser acumulado. Os quadros que chegam a um switch são enfileirados ou colocados em buffer antes de serem encaminhados. Como em qualquer sistema de filas, é possível que haja um acúmulo excessivo de quadros em um switch. Isso causa atrasos. Os atrasos ocasionam retransmissões desnecessárias, que ocorrem quando os protocolos de nível mais alto não recebem
    • 127 reconhecimento dentro de um prazo determinado. Em casos graves, isso pode causar quedas tremendas no desempenho da rede. Para evitar este problema, os switches de Frame Relay incorporam uma política de descartar quadros da fila para manter as filas curtas. Os quadros cujo bit DE está marcado serão os primeiros a serem descartados. Quando um switch percebe que sua fila está aumentando, ele tenta reduzir o fluxo de quadros para ela. Isso é realizado mediante a notificação dos DTEs sobre o problema, marcando os bits ECN (Explicit Congestion Notification) nos campos de endereço dos quadros. O bit FECN (Forward ECN) é marcado em cada quadro recebido pelo switch no link congestionado. O bit BECN (Backward ECN) é marcado em cada quadro colocado pelo switch no link congestionado. Os DTEs que recebem quadros com os bits ECN marcados devem tentar reduzir o fluxo de quadros, até que o congestionamento seja aliviado. Se o congestionamento ocorrer em um tronco interno, os DTEs podem receber notificação, embora estes não sejam a causa do congestionamento. Os bits DE, FECN e BECN fazem parte do campo de endereço no quadro LAPF. 5.1.5 Mapeamento de endereços e topologia do Frame Relay Para a interligação de duas instalações, é necessário considerar à topologia das conexões entre elas. Não é provável que o Frame Relay seja econômico quando duas instalações estão interligadas com uma conexão ponto-a-ponto. O Frame Relay é mais econômico onde é necessário interligar várias instalações. As WANs freqüentemente são interligadas como topologia em estrela. Os serviços primários residem em instalações centrais, que se ligam a cada local remoto que precisa ter acesso aos serviços.
    • 128 Em uma topologia de hub e spoke, o local do hub é escolhido para resultar em despesas mínimas de linha alugada. Ao implementar uma topologia em estrela com o Frame Relay, cada instalação remota possui um link de acesso à nuvem de Frame Relay através de um só VC. O ponto central possui um link de acesso com vários VCs, um para cada local remoto. Pelo fato de as tarifas de Frame Relay não serem afetadas pela distância, o ponto central não precisa estar no centro geográfico da rede. Uma topologia de malha completa é escolhida quando os serviços a serem acessados encontram-se geograficamente dispersos e quando é necessário que o acesso a eles seja altamente confiável. Com malha completa, cada local é ligado a cada um dos demais locais. Ao contrário das interconexões de linha alugada, isso pode ser realizado no Frame Relay sem hardwares adicionais.
    • 129 É necessário configurar VCs adicionais nos links existentes para atualizar a topologia em estrela para malha completa. Vários VCs em um link de acesso geralmente têm melhor aproveitamento do Frame Relay do que um único VC. Isso se deve à sua utilização de multiplexação estatística incorporada. Para redes grandes, uma topologia de malha completa raramente é econômica. Isso se deve ao fato de que o número de links necessários para uma topologia de malha completa cresce a quase o quadrado do número de locais. Embora não haja nenhum problema quanto a equipamentos para Frame Relay, existe um limite de menos de 1000 VCs por link. Na prática, o limite é inferior a isso, e redes maiores geralmente apresentam uma topologia de malha parcial (partial mesh). Para a malha parcial, há mais interconexões do que para um arranjo em estrela, mas não tantas quanto para malha completa. O padrão final depende muito dos requisitos de fluxo dos dados. Em qualquer topologia de Frame Relay, quando uma só interface é usada para interligar vários locais, pode haver questões de alcançabilidade. Isso se deve à natureza NBMA (nonbroadcast multiaccess) do Frame Relay. O Split horizon é uma técnica usada pelos protocolos de roteamento para prevenir loops de roteamento. O Split horizon não permite que as atualizações de roteamento sejam enviadas à mesma interface que originou as informações de roteamento. Isso pode causar problemas com atualizações de roteamento em um ambiente de Frame Relay, onde vários PVCs existem em uma só interface física. Qualquer que seja a topologia subjacente de uma rede física, é necessário um mapeamento em cada FRAD ou roteador entre um endereço de Frame Relay na camada do enlace de dados e o endereço na camada de rede, tal como um endereço IP. Essencialmente, o roteador
    • 130 precisa saber quais redes são alcançáveis além de uma interface em particular. O mesmo problema existe se uma linha alugada normal estiver conectada a uma interface. A diferença é que a extremidade remota de uma linha alugada é conectada diretamente a um só roteador. Os quadros do DTE são transportados através de uma linha alugada até um switch de rede, onde podem espalhar-se em leque para até 1000 roteadores. O DLCI para cada VC precisa estar associado ao endereço de rede de seu roteador remoto. Estas informações podem ser configuradas manualmente, por meio dos comandos de mapeamento (map). O DLCI também pode ser configurado automaticamente, mediante ARP inverso. Esse processo é tratado com maiores detalhes em outra seção. 5.1.6 LMI de Frame Relay O Frame Relay foi projetado para proporcionar transferência de dados com comutação de pacotes com um mínimo de atraso fim-a-fim. Qualquer coisa que pudesse contribuir para o atraso foi omitida. Quando os fornecedores implementaram o Frame Relay como tecnologia independente em vez de como um componente de ISDN, decidiram que havia a necessidade dos DTEs adquirirem dinamicamente informações sobre o status da rede. Este recurso não fazia parte do projeto original. As extensões para essa transferência de status denominam-se Local Management Interface (LMI). The campo DLCI de 10 bits aceita os identificadores de VCs entre 0 e 1023. As extensões da LMI reservam alguns desses identificadores. Isso reduz o número permitido de VCs. São trocadas mensagens de LMI entre os DTEs e os DCEs, usando-se esses DLCIs reservados. As extensões LMI incluem o seguinte: • O mecanismo keepalive, que verifica a operacionalidade do VC • O mecanismo multicast • O controle de fluxo • A capacidade de dar significado global aos DLCIs • O mecanismo de status do VC Existem vários tipos de LMI, cada uma incompatível com as demais. O tipo da LMI configurada no roteador precisa corresponder ao tipo usado pelo provedor de serviço. Três tipos de LMIs são suportadas pelos roteadores Cisco: • Cisco – As extensões LMI originais • ANSI – Correspondente ao padrão ANSI T1.617 Anexo D • q933a – Correspondente ao padrão ITU Q933 Anexo A As mensagens LMI são carregadas em uma variante dos quadros LAPF. Esta variante inclui quatro campos adicionais no cabeçalho, para que eles sejam compatíveis com os quadros LAPD usados em ISDN. O campo de endereço carrega um dos DLCIs reservados. Em seguida, vêm os campos de controle, discriminador de protocolos e referência de chamada, que não mudam. O quarto campo indica o tipo de mensagem LMI.
    • 131 Existem um ou mais elementos de informação (IE) após o cabeçalho. Cada IE consiste no seguinte: • Um identificador de IE de um byte • Um campo de comprimento do IE • Um ou mais bytes, que contêm dados reais que tipicamente incluem o status do DLCI As mensagens de status ajudam a verificar a integridade dos links lógicos e físicos. Essas informações são críticas em um ambiente de roteamento, porque os protocolos de roteamento tomam decisões com base na integridade dos links. 5.1.7 Etapas de uma operação de ARP Inverso e de LMI A combinação de mensagens de status LMI e mensagens ARP permite que um roteador faça a associação de endereços da camada de rede com os da camada de enlace de dados. Quando se inicia um roteador conectado a uma rede Frame Relay, ele envia uma mensagem de pesquisa de status LMI para a rede. A rede responde com uma mensagem de status LMI, contendo detalhes sobre cada VC configurado no link de acesso.
    • 132 Periodicamente, o roteador repete a pesquisa de status, mas as respostas subseqüentes incluem apenas alterações de status. Após um número determinado de tais respostas abreviadas, a rede enviará uma mensagem de status completa. Se o roteador precisar mapear os VCs para endereços da camada de rede, ele enviará uma mensagem ARP Inversa em cada VC. A mensagem ARP Inversa inclui o endereço da camada de rede do roteador, de modo que o DTE remoto, ou roteador, também possa realizar o mapeamento. A resposta ARP inversa permite que o roteador faça as entradas necessárias de mapeamento na sua tabela de mapeamento de endereços para DLCI. Se forem suportados vários protocolos de camada de rede no link, mensagens ARP Inversas serão enviadas para cada um. 5.2 Configurando Frame Relay 5.2.1 Configurando Frame Relay básico Esta seção explica como configurar um PVC de Frame Relay básico.
    • 133 O Frame Relay é configurado em uma interface serial. O tipo padrão de encapsulamento é a versão do HDLC proprietária da Cisco. Para mudar o encapsulamento para Frame Relay, use o comando encapsulation frame-relay [cisco | ietf]. cisco Utiliza o encapsulamento Frame Relay proprietário da Cisco. Use esta opção se for para conectar a outro roteador Cisco. Vários dispositivos não Cisco também suportam esse tipo de encapsulamento. Esse é o padrão. ietf Define o método de encapsulamento para cumprir o padrão IETF (Internet Engineering Task Force) RFC 1490. Selecione esta opção se estiver conectando-se a um roteador não Cisco. O encapsulamento Frame Relay proprietário da Cisco utiliza um cabeçalho de 4 bytes, com 2 bytes para identificar o identificador de conexão de enlace de dados (DLCI) e 2 bytes para identificar o tipo de pacote. Defina um endereço IP na interface, por meio do comando ip address. Defina a largura de banda da interface serial, por meio do comando bandwidth. A largura de banda é especificada em kilobits por segundo (kbps). Esse comando é usado para notificar o protocolo de roteamento de que a largura de banda está configurada estaticamente no link. O valor da largura de banda é usado pelo IGRP (Interior Gateway Routing Protocol), pelo EIGRP (Enhanced Interior Gateway Routing Protocol) e pelo OSPF (Open Shortest Path First) para determinar a métrica do link. A conexão LMI é estabelecida e configurada pelo comando frame-relay lmi-type [ansi | cisco | q933a]. Este comando é necessário somente ao se utilizar o Cisco IOS versão 11.1 ou anterior. Com o IOS Versão 11.2 ou posterior, a LMI é detectada automaticamente e não é necessário configurá-la. A LMI padrão é Cisco. O tipo da LMI é definido para cada interface e aparece na saída do comando show interfaces. Essas etapas de configuração são idênticas, independentemente dos protocolos da camada de rede em operação através da rede.
    • 134 5.2.2 Configurando um mapa estático de Frame Relay O DLCI local precisa ser mapeado estaticamente ao endereço da camada de rede do roteador remoto quando este não suporta ARP Inverso. Esse também é o caso quando o tráfego de broadcast e de multicast através do PVC precisa ser controlado. Essas entradas estáticas de Frame Relay são conhecidas como mapas estáticos. Use o comando frame-relay mapprotocol protocol-address dlci[broadcast] para mapear estaticamente o endereço remoto de camada de rede para o DLCI local. 5.2.3 Questões de alcançabilidade com atualizações de roteamentos no ambiente NBMA Por padrão, uma rede Frame Relay proporciona conectividade NBMA (non-broadcast multi- access) entre instalações remotas. Um ambiente NBMA é considerado como outros ambientes de meios de multiacesso como Ethernet, onde todos os roteadores estão na mesma sub-rede. No entanto, para reduzir os custos, as nuvens NBMA normalmente são montadas em uma topologia hub-and-spoke (semelhante a estrela). Com uma topologia hub-and-spoke, a topologia física não oferece as mesmas capacidades de multiacesso da Ethernet.
    • 135 A topologia física consiste em vários PVCs. Uma topologia NBMA para Frame Relay pode causar dois problemas: • Questões de alcançabilidade com relação a atualizações de roteamento • A necessidade de replicar broadcasts em cada PVC quando uma interface física contiver mais de um PVC A atualização do split horizon reduz os loops de roteamento, não permitindo que uma atualização de roteamento recebida em uma interface física seja encaminhada através da mesma interface. Se o Roteador B, um roteador spoke (de raio), enviar uma atualização de roteamento por broadcast para o Roteador A, um roteador hub (de fuso), e se o Roteador A possuir vários PVCs sobre uma única interface física, então o Roteador A não poderá encaminhar essa atualização de roteamento através da mesma interface física a outros roteadores spoke remotos. Se o split horizon for desativado, subseqüentemente a atualização de roteamento poderá ser encaminhada através da mesma interface física na qual chegou. O split horizon não é problema quando há só um PVC em uma interface física. Essa seria uma conexão Frame Relay ponto-a-ponto. Os roteadores que permitem várias conexões sobre uma única interface física possuem vários PVCs que terminam em um único roteador. Esse roteador precisa replicar pacotes de broadcast, tais como broadcasts de atualização de roteamento em cada PVC, para os
    • 136 roteadores remotos. Os pacotes de broadcast replicados podem consumir largura de banda e causar latência considerável no tráfego dos usuários. Poderá parecer lógico desativar o split horizon para resolver as questões de alcançabilidade causadas por ele. No entanto, nem todos os protocolos da camada de rede permitem a desativação do split horizon e a sua desativação aumenta as chances de loops de roteamento em qualquer rede. Uma maneira de resolver os problemas do split horizon é utilizar uma topologia de malha completa. Entretanto, isso aumenta os custos, porque será necessário haver mais PVCs. A solução preferida é a utilização de sub-interfaces. 5.2.4 Sub-interfaces de Frame Relay Para permitir o encaminhamento de atualização de roteamento por broadcast em uma topologia hub-and-spoke para Frame Relay, configure o roteador central (hub) com interfaces logicamente designadas. Essas interfaces são denominadas sub-interfaces. As sub-interfaces são subdivisões lógicas de uma interface física. Nos ambientes de roteamento split horizon, as atualizações de roteamento recebidas em uma sub-interface podem ser enviadas em outra sub-interface. Em uma configuração de sub- interfaces, cada circuito virtual pode ser configurado como conexão ponto-a-ponto. Isso permite que cada sub-interface funcione semelhante a uma linha alugada. Usando uma sub-interface ponto-a-ponto Frame Relay, cada par de roteadores ponto-a-ponto está em sua própria sub- rede. As sub-interfaces Frame Relay podem ser configuradas no modo ponto-a-ponto ou no modo multiponto: • Ponto-a-ponto – Uma única sub-interface é usada para estabelecer uma conexão PVC com outra interface ou sub-interface física em um roteador remoto. Nesse caso, cada par de roteadores ponto-a-ponto existe em sua própria sub-rede e cada sub- interface ponto-a-ponto tem um só DLCI. Em um ambiente ponto-a-ponto, cada sub- interface age como interface ponto-a-ponto. Assim, o tráfego de atualização de roteamento não está sujeito à regra do split horizon. • Multiponto – Uma única sub-interface é usada para estabelecer várias conexões PVC com várias interfaces ou sub-interfaces físicas em roteadores remotos. Todas as interfaces participantes estariam na mesma sub-rede. As sub-interfaces agem como interface NBMA Frame Relay de modo que o tráfego de atualização de roteamento está sujeito à regra do split-horizon. O comando encapsulation frame-relay é designado à interface física. Os demais itens de configuração, tais como o endereço da camada de rede e os DLCIs, são designados à sub- interface. As configurações multiponto podem ser usadas para conservar endereços que podem ser especialmente úteis se não estiver sendo usado o VLSM (Variable Length Subnet Masking). Entretanto, as configurações multiporta podem não funcionar corretamente devido a
    • 137 considerações de tráfego broadcast e de split horizon. A opção de sub-interface ponto-a-ponto foi criada para evitar estes problemas. 5.2.5 Configurando Sub-interfaces de Frame Relay O provedor de serviços de Frame Relay designará os números DLCI. Esses números variam entre 16 e 992, e geralmente possuem significado apenas local. DLCIs podem ter significado global em certas circunstâncias. Essa faixa de números poderá variar conforme as LMIs utilizadas. Na figura, o Roteador A possui duas sub-interfaces ponto-a-ponto. A sub-interface s0/0.110 faz conexão com o roteador B e a sub-interface s0/0.120 faz conexão com o roteador C. Cada sub- interface existe sobre uma sub-rede diferente. Para configurar sub-interfaces em uma interface física, é necessário realizar as seguintes etapas: • Configure o encapsulamento Frame Relay na interface física, usando o comando encapsulation frame-relay. • Para cada um dos PVCs definidos, crie uma sub-interface lógica
    • 138 router(config-if)#interface serialnumber.subinterface-number [multipoint | point-to-point] Para criar uma sub-interface, use o comando interface serial. Especifique o número da porta, seguido de ponto (.) e, em seguida, o número da sub-interface. Normalmente, o número da sub-interface é escolhido para ser idêntico ao do DLCI. Isso facilita a resolução de problemas. O último parâmetro exigido é a declaração de que a sub-interface seja uma interface ponto-a-ponto ou ponto-a-multiponto. É necessário fornecer a palavra-chave multipoint ou point-to-point. Não existe padrão. Os seguintes comandos criam a sub- interface para o PVC para o roteador B: routerA(config-if)#interface serial 0/0.110 point-to-point Se a sub-interface é configurada como ponto-a-ponto, o DLCI local para a sub-interface também precisa ser configurado para poder distingui-lo da interface física. O DLCI também é necessário para sub-interfaces multiponto para as quais ARP Inverso é ativado. Não é exigido que as sub-interfaces sejam configuradas com mapas de rota estáticos. O comando frame- relay interface-dlci é usado para configurar o DLCI local na sub-interface. router(config-subif)#frame-relay interface-dlcidlci-number 5.2.6 Verificando a configuração do Frame Relay O comando show interfaces exibe informações com relação ao encapsulamento e ao status das Camadas 1 e 2. Também exibe informações sobre o seguinte: • O tipo de LMI • O DLCI da LMI • O tipo de equipamento terminal de dados/equipamento terminal de circuito de dados (DTE/DCE) Normalmente, o roteador é considerado como dispositivo de equipamento terminal de dados (DTE). Entretanto, um roteador Cisco pode ser configurado como switch de Frame Relay. O
    • 139 roteador torna-se equipamento terminal de circuito de dados (DCE) quando é configurado como switch de Frame Relay. Use o comando show frame-relay lmi para exibir estatísticas do tráfego LMI. Por exemplo, esse comando demonstra o número de mensagens de status trocadas entre o roteador local e o switch local de Frame Relay. Use o comando show frame-relay pvc [interfaceinterface] [dlci] para exibir o status de cada PVC configurado, assim como estatísticas de tráfego. Esse comando é útil também para examinar o número de pacotes BECN e FECN recebidos pelo roteador. O status do PVC pode ser ativo, inativo ou excluído.
    • 140 O comando show frame-relay pvc exibe o status de todos os PVCs configurados no roteador. Especificar um PVC individual exibe o status só daquele PVC. Na Figura mostrada acima, o comando show frame-relay pvc 100 exibe o status somente do PVC 100. Use o comando show frame-relay map para exibir as entradas atuais do mapa e as informações sobre as conexões. As seguintes informações interpretam a saída do comando show frame-relay map que aparece na Figura: • 10.140.1.1 é o endereço IP do roteador remoto, aprendido dinamicamente através do processo ARP Inverso • 100 é o valor decimal do número do DLCI local. • 0x64 é a conversão em hexadecimal do número do DLCI, 0x64 = 100 decimal • 0x1840 é o valor que apareceria no fio devido à maneira como os bits do DLCI espalham-se no campo do endereço do quadro Frame Relay • Broadcast/multicast está ativado no PVC • O status do PVC é ativo Para limpar os mapas de Frame Relay criados dinamicamente, pela utilização do ARP Inverso, use o comando clear frame-relay-inarp. 5.2.7 Resolvendo problemas com a configuração do Frame Relay Use o comando debug frame-relay lmi para determinar se o roteador e o switch Frame Relay estão enviando e recebendo corretamente os pacotes LMI.
    • 141 O "out" é uma mensagem de status LMI enviada pelo roteador. O "in" é uma mensagem recebida do switch Frame Relay. Uma mensagem de status LMI completa é um "type 0". Um intercâmbio LMI é um "type 1". O "dlci 100, status 0x2" significa que o status do DLCI 100 é ativo. Os possíveis valores do campo status são os seguintes: • 0x0 – Added/inactive significa que o switch tem esse DLCI programado mas, por uma razão ou outra, ele não pode ser utilizado. A razão poderia ser que a outra extremidade do PVC está inativa. • 0x2 – Added/active significa que o switch Frame Relay tem o DLCI e tudo está operacional. • 0x4 – Deleted significa que o switch Frame Relay não tem este DLCI programado para o roteador, mas que foi programado em algum momento no passado. Isso também pode ser causado pela reversão do DLCI no roteador, ou pela exclusão do PVC pelo provedor de serviços dentro da nuvem do Frame Relay.
    • 142 Resumo Devem ter sido compreendidos os importantes conceitos a seguir: • A abrangência e a finalidade de Frame Relay • A tecnologia de Frame Relay • As topologias ponto-a-ponto e ponto-a-multiponto • A topologia de uma rede Frame Relay • Como configurar um Circuito Virtual Permanente (PVC) para Frame Relay • Como criar um Mapa de Frame Relay em uma rede remota • Potenciais problemas com o roteamento em uma rede não broadcast de multiacesso. • Por que as sub-interfaces são necessárias e como são configuradas • Como verificar e resolver problemas com uma conexão Frame Relay
    • 143 Módulo 6 - Introdução à Administração de Redes Visão Geral Os primeiros PCs foram criados como desktops independentes. O software do sistema operacional permitia que um usuário por vez acessasse arquivos e recursos do sistema. O usuário tinha acesso físico ao PC. Com a popularização das redes de computadores baseadas em PCs no local de trabalho, as empresas de software desenvolveram Sistemas Operacionais de Rede especializados. Os desenvolvedores criaram os Sistemas Operacionaia de Rede para proporcionar segurança de arquivos, privilégios de usuários e compartilhamento de recursos entre vários usuários. O crescimento explosivo da Internet obrigou os desenvolvedores a construir os Sistemas Operacionais de Rede atuais em torno de tecnologias e serviços relacionados à Internet, tais como a World Wide Web (WWW). A conectividade de rede é hoje essencial à computação de desktop. A distinção entre os modernos sistemas operacionais de desktop, hoje carregados com recursos e serviços de rede, e seus Sistemas Operacionais de Rede correspondentes tornou-se confusa. Hoje, os sistemas operacionais mais populares como, por exemplo, Microsoft Windows 2000 e Linux, são encontrados em servidores de rede de alta capacidade e nos desktops de usuários finais. O conhecimento de diferentes sistemas operacionais garantirá a seleção do sistema operacional correto para oferecer todos os serviços necessários. UNIX, Linux, Mac OS X e vários sistemas operacionais Windows serão apresentados. O gerenciamento eficiente de redes locais e WANs é o elemento-chave para a manutenção de um ambiente produtivo no mundo das redes. Com a disponibilização de mais serviços para mais usuários, o desempenho das redes é afetado. Os administradores de rede, através do monitoramento constante, devem identificar e ser capazes de corrigir problemas antes que eles sejam perceptíveis aos usuários finais. Várias ferramentas e protocolos estão disponíveis para monitorar a rede em termos locais e remotos. Uma compreensão abrangente dessas ferramentas é crucial para um gerenciamento eficiente de rede. Ao concluírem este módulo, os alunos deverão ser capazes de: • Identificar várias tarefas potenciais executadas por uma estação de trabalho • Identificar várias funções potenciais de um servidor • Descrever as funções de equipamentos em um ambiente cliente/servidor • Descrever as diferenças entre um Sistema Operacional de Rede e um sistema operacional de desktop • Listar vários sistemas operacionais Windows e suas características • Listar várias alternativas aos sistemas operacionais Windows e suas características • Identificar ferramentas de gerenciamento de rede • Identificar os pontos básicos que direcionam o gerenciamento de rede • Descrever os modelos OSI e de gerenciamento de rede • Descrever o SNMP (simple network management protocol, protocolo de gerenciamento de rede comum) e o CMIP (common management information protocol, protocolo de informações de gerenciamento de rede) • Descrever como o software de gerenciamento coleta informações e registra problemas 6.1 Estações de Trabalho e Servidores 6.1.1 Estações de trabalho Uma estação de trabalho é um computador cliente usado para executar aplicativos, conectado a um servidor do qual obtém dados compartilhados com outros computadores. Um servidor é um computador que executa um Sistema Operacional de Rede. Uma estação de trabalho usa
    • 144 software especial como, por exemplo, um programa shell de redes para executar as seguintes tarefas: • Interceptar dados do usuário e comandos de aplicações • Decidir se o comando é relativo ao sistema operacional local ou ao Sistema Operacional de Rede. • Direcionar o comando ao sistema operacional local ou à placa de rede para processamento e transmissão na rede • Entregar transmissões da rede à aplicação em execução na estação de trabalho Alguns sistemas operacionais Windows podem ser instalados em estações de trabalho e em servidores. As versões NT/2000/XP do software Windows proporcionam recursos de servidores de redes. As versões do Windows 9x e ME oferecem apenas suporte a estações de trabalho. UNIX ou Linux pode funcionar como sistema operacional de desktop mas, normalmente, é encontrado em computadores de alto desempenho. Essas estações de trabalho são empregadas em aplicações científicas e de engenharia, que exigem computadores dedicados de alto desempenho. Algumas das aplicações específicas freqüentemente executadas em estações de trabalho UNIX estão incluídas na lista a seguir: • CAD (Computer-aided design, projeto auxiliado por computador) • Projeto de circuitos eletrônicos • Análise de dados meteorológicos • Animação gráfica por computador • Gerenciamento de equipamentos de telecomunicações A maioria dos sistemas operacionais de desktop atuais inclui recursos de rede e suporta acesso de vários usuários. Por esse motivo, está ficando mais comum classificar computadores e sistemas operacionais com base nos tipos de aplicação executados no computador. Essa classificação baseia-se na função desempenhada pelo computador como, por exemplo, estação de trabalho ou servidor. Aplicações típicas de desktop ou de estações de trabalho de baixo desempenho podem incluir processamento de texto, planilhas e gerenciamento financeiro. Em estações de trabalho de alto desempenho, as aplicações podem incluir projetos gráficos ou gerenciamento de equipamentos e outros tipos, conforme listado acima. Uma estação de trabalho sem disco é um tipo especial de computador criado para funcionar em rede. Como o nome sugere, ela não possui unidades de disco, mas possui monitor, teclado, memória, instruções de inicialização em ROM e uma placa de rede. O software usado para estabelecer a conexão de rede é carregado do chip de ROM inicializável localizado na placa de rede. Como uma estação de trabalho sem disco não possui unidades de disco, não é possível usá-la para fazer upload ou download de dados de qualquer espécie. Uma estação de trabalho sem disco não pode transmitir vírus à rede nem pode ser usada para obter dados da rede via cópia dessas informações em uma unidade de disco. Assim, as estações de trabalho sem disco oferecem maior segurança do que as comuns. Por esse motivo, essas estações de trabalho são usadas em redes nas quais a segurança é aspecto absolutamente primordial. Os laptops também podem funcionar como estações de trabalho em uma rede local e podem ser conectados via docking station, adaptador externo de rede (adaptador LAN) ou placa PCMCIA (Personal Computer Memory Card International Association). Uma docking station é um dispositivo adicional que transforma o laptop em desktop.
    • 145 6.1.2 Servidores Em um ambiente de sistema operacional de rede, muitos sistemas clientes acessam e compartilham os recursos de um ou mais servidores. Os sistemas clientes de desktop são equipados com seus próprios dispositivos periféricos e de memória, tais como teclado, monitor e unidade de disco. Os sistemas de servidor devem ser equipados para suportar vários usuários simultâneos e várias tarefas, à medida que os clientes solicitem recursos remotos ao servidor. Os Sistemas Operacionais de Rede têm ferramentas e recursos adicionais de gerenciamento de rede criados para suportar o acesso simultâneo de grande número de usuários. Em todas as redes, exceto nas menores, os Sistemas Operacionais de Rede são instalados em servidores potentes. Muitos usuários, conhecidos como clientes, compartilham esses servidores. Os servidores normalmente têm unidades de disco com alta capacidade e alta velocidade, grandes quantidades de RAM, placas de rede de alta velocidade e, em alguns casos, várias CPUs. Esses servidores são normalmente configurados para usar a família de protocolos Internet, TCP/IP e para oferecer um ou mais serviços TCP/IP. Os servidores que executam Sistemas Operacionais de Rede também são usados para autenticar usuários e fornecer acesso a recursos compartilhados. Esses servidores são projetados para processar simultaneamente solicitações de vários clientes. Antes que um cliente possa acessar os recursos do servidor, ele precisa ser identificado e autorizado a usá- los. A identificação e a autorização são obtidas atribuindo-se a cada cliente uma conta e uma senha. A conta e a senha são, então, verificados por um serviço de autenticação para permitir ou negar acesso à rede. Com a centralização das contas, da segurança e do controle de acesso do usuário, as redes baseadas em servidor simplificam o trabalho de administração de redes. Os servidores são, normalmente, sistemas maiores do que as estações de trabalho e têm memória adicional para suportar várias tarefas simultaneamente ativas ou residentes na memória. Também é necessário espaço adicional em disco nos servidores para manter arquivos compartilhados e para funcionar como extensão da memória interna do sistema. Além disso, os servidores normalmente exigem slots de expansão extras em suas placas de sistema para conectar dispositivos compartilhados, tais como impressoras e várias interfaces de rede. Outra característica dos sistemas capazes de funcionar como servidores é a potência de processamento. Normalmente, os computadores têm uma única CPU, que executa as instruções que compõem determinada tarefa ou processo. Para trabalhar com eficiência e fornecer respostas rápidas às solicitações dos clientes, um servidor de Sistema Operacional de Rede exige uma CPU potente para executar suas tarefas ou programas. Os sistemas com um único processador e uma CPU podem atender às necessidades da maioria dos servidores, se
    • 146 a CPU tiver a velocidade necessária. Para alcançar maiores velocidades de execução, alguns sistemas são equipados com mais de um processador. Esses sistemas são chamados de multiprocessadores. Os sistemas multiprocessadores são capazes de executar várias tarefas paralelamente, atribuindo cada uma delas a um processador diferente. O volume de trabalho agregado que o servidor pode executar em um determinado tempo é muito maior em sistemas multiprocessadores. Como os servidores atuam como repositórios centrais vitais para a operação dos sistemas clientes, eles devem ser eficientes e robustos. O termo "robusto" indica que os sistemas do servidor são capazes de funcionar com eficiência sob cargas pesadas. Significa também que os sistemas são capazes de sobreviver à falha de um ou mais processos ou componentes sem sofrer falha geral do sistema. Esse objetivo é alcançado com a geração de redundância nos sistemas de servidor. Redundância é a inclusão de componentes de hardware adicionais, que podem assumir as tarefas em caso de falha de outros componentes. Redundância é um recurso de sistemas com tolerância a falhas, criados para sobreviver a falhas e que podem ser reparados sem interrupção enquanto os sistemas estão em funcionamento. Como um Sistema Operacional de Rede depende da operação contínua do seu servidor, os componentes extras de hardware justificam a despesa adicional. As aplicações e funções dos servidores incluem serviços de Web com o uso de http (Hypertext Transfer Protocol, protocolo de transporte de hipertexto), FTP (File Transfer Protocol, protocolo de transferência de arquivos) e DNS (Domain Name System, sistema de nomes de domínio). Os protocolos padrão de correio eletrônico suportados por servidores de rede incluem SMTP (Simple Mail Transfer Protocol, protocolo de transferência de correspondência simples), POP3 (Post Office Protocol 3, protocolo de correio) e IMAP (Internet Messaging Access Protocol, protocolo de acesso a mensagens de internet). Os protocolos de compartilhamento de arquivos incluem NFS (Network File System, sistema de arquivos de rede), da Sun Microsystems, e SMB (Server Message Block, bloco de mensagens do servidor), da Microsoft .
    • 147 Os servidores de rede freqüentemente fornecem serviços de impressão. Um servidor também pode fornecer DHCP (Dynamic Host Configuration Protocol), que aloca automaticamente endereços IP a estações de trabalho clientes. Além de executar serviços para os clientes na rede, os servidores podem ser configurados para funcionar como um firewall básico para a rede. Isso é obtido com o uso de proxy ou de NAT (Network Address Translation, conversão de endereços de rede); ambos ocultam da Internet os endereços da rede privada interna.
    • 148 Um servidor que esteja executando um Sistema Operacional de Rede pode trabalhar bem ao atender apenas alguns clientes. Entretanto, a maioria das organizações deve implantar vários servidores para alcançar um desempenho aceitável. Um projeto típico separa os serviços de modo que um servidor responda pelo correio eletrônico, outro pelo compartilhamento de arquivos e um outro pelo FTP. A concentração dos recursos de rede como arquivos, impressoras e aplicações nos servidores também facilita o backup e a manutenção dos dados gerados. Em vez de se ter esses recursos espalhados em máquinas individuais, eles podem ser localizados em servidores especializados e dedicados, para acesso e backup mais fáceis. 6.1.3 Relação cliente-servidor O modelo de computação cliente-servidor distribui o processamento por vários computadores. O processamento distribuído permite o acesso a sistemas remotos, com a finalidade de compartilhar informações e recursos de rede. Em um ambiente cliente-servidor, o cliente e o servidor compartilham ou distribuem responsabilidades de processamento. A maioria dos sistemas operacionais é projetada em torno do modelo cliente-servidor para fornecer serviços de rede aos usuários. Um computador em uma rede pode ser chamado de host, estação de trabalho, cliente ou servidor. Um computador que execute TCP/IP, seja uma estação de trabalho ou um servidor, é considerado um computador host. Definições de outros termos comumente usados: • Host local – A máquina na qual o usuário está trabalhando no momento. • Host remoto – Um sistema que está sendo acessado por um usuário a partir de outro sistema. • Servidor – Fornece recursos a um ou mais clientes através de uma rede. • Cliente – Uma máquina que usa os serviços de um ou mais servidores em uma rede. Um exemplo de relação cliente-servidor é uma sessão de FTP. O FTP é um método universal de transferência de arquivos de um computador para o outro. Para o cliente transferir um arquivo do servidor, este deverá estar executando o daemon ou serviço do FTP. Nesse caso, o cliente solicita que o arquivo seja transferido. O servidor fornece os serviços necessários para receber ou enviar o arquivo.
    • 149 A Internet também é um bom exemplo de relação de computação cliente-servidor com processamento distribuído. O cliente ou front end normalmente controla as funções de apresentação do usuário, tais como formatação em tela, formulários de entrada e edição de dados. Isso é feito com um navegador como, por exemplo, o Netscape ou o Internet Explorer. Os navegadores da Web enviam solicitações a servidores da Web. Quando o navegador solicita dados do servidor, este responde e o programa do navegador recebe uma resposta do servidor da Web. O navegador, então, exibe os dados de HTTP recebidos. O servidor ou back end controla as solicitações de páginas da Web por parte dos clientes e fornece serviços de HTTP ou de WWW. Outro exemplo de relação cliente-servidor é um servidor de banco de dados e uma entrada de dados ou consulta do cliente em uma rede local. O cliente ou front end pode estar executando uma aplicação escrita em linguagem C ou Java e o servidor ou back end pode estar executando um software de gerenciamento de banco de dados Oracle ou algum outro. Nesse caso, o cliente controlaria as tarefas de formatação e de apresentação para o usuário. O servidor forneceria serviços de armazenamento em banco de dados e de recuperação de dados para o usuário. Em um ambiente típico de servidor de arquivos, o cliente pode precisar recuperar grandes volumes de arquivos do banco de dados para processá-los localmente. Essa recuperação dos arquivos do banco de dados pode causar excesso de tráfego. Com o modelo cliente-servidor, o cliente apresenta uma solicitação ao servidor e o mecanismo de banco de dados do servidor pode processar 100.000 registros e retornar apenas alguns ao cliente para atender à solicitação. Os servidores são normalmente muito mais potentes do que os computadores clientes e são mais adaptados ao processamento de grandes volumes de dados. Com a computação cliente-servidor, o grande banco de dados é armazenado e o processamento ocorre no servidor. O cliente tem que lidar apenas com a criação da consulta. Um volume relativamente pequeno de dados ou resultados pode ser transmitido através da rede. Isso satisfaz a consulta do cliente e resulta em menos uso da largura de banda da rede. O gráfico mostra um exemplo de computação cliente-servidor. Observe que a estação de trabalho e o servidor normalmente seriam conectados à rede local por um hub ou por um switch. A distribuição das funções em redes cliente/servidor traz consideráveis vantagens, mas também acarreta alguns custos. Embora a agregação de recursos aos sistemas de servidor traga maior segurança, um acesso mais simples e controle coordenado, o servidor apresenta um único ponto de falha na rede. Sem um servidor operacional, a rede não pode funcionar. Além disso, a administração e a manutenção dos servidores exigem pessoal treinado e especializado, o que aumenta a despesa de execução da rede. Os sistemas de servidor exigem hardware adicional e softwares especializados, o que aumenta o custo.
    • 150 6.1.4 Introdução ao Sistema Operacional de Rede Um Sistema Operacional é a base de software sobre a qual aplicações e serviços de computadores são executados em uma estação de trabalho. Da mesma forma, um Sistema Operacional de Rede permite a comunicação entre vários dispositivos e o compartilhamento de recursos em uma rede. Um Sistema Operacional de Rede opera em servidores de rede UNIX, Microsoft Windows NT ou Windows 2000. Funções comuns de um Sistema Operacional em uma estação de trabalho incluem o controle do hardware do computador, a execução de programas e o fornecimento de uma interface do usuário. O Sistema Operacional executa essas funções para um único usuário. Vários usuários podem compartilhar a máquina, mas não podem fazer login simultâneo. Ao contrário, um Sistema Operacional de Rede distribui funções por diversos computadores conectados em rede. Um Sistema Operacional de Rede depende dos serviços do Sistema Operacional nativo em cada computador individual. O Sistema Operacional de Rede, então, adiciona funções que permitem acesso simultâneo a recursos compartilhados por parte de diversos usuários. Em um ambiente de Sistema Operacional de Rede, as estações de trabalho funcionam como clientes. Quando uma estação de trabalho torna-se cliente em um ambiente de Sistema Operacional de Rede, componentes adicionais de software especializado permitem ao usuário local acessar recursos não locais ou remotos como se esses recursos fossem parte do sistema local. O Sistema Operacional de Rede aprimora o alcance da estação de trabalho cliente, disponibilizando serviços remotos como extensões do sistema operacional local. Um sistema capaz de operar como servidor de Sistema Operacional de Rede deve poder suportar vários usuários simultaneamente. O administrador da rede cria uma conta para cada usuário, permitindo que o usuário faça login e efetue conexão com o sistema do servidor. A conta do usuário no servidor permite que este autentique o usuário e aloque os recursos que ele tem permissão para acessar. Os sistemas que fornecem esse recurso são chamados de sistemas multiusuário. Um servidor de Sistema Operacional de Rede é um sistema multitarefa, capaz de executar várias tarefas ou processos simultaneamente. O software de programação do Sistema Operacional de Rede aloca tempo do processador interno, memória e outros elementos do sistema a diferentes tarefas, de modo a permitir que elas compartilhem os recursos do sistema. Cada usuário do sistema multiusuário é suportado por uma tarefa ou processo separado internamente no servidor. Essas tarefas internas são criadas dinamicamente à medida que os usuários efetuam conexão com o sistema e excluídas quando esses usuários encerram a conexão. As principais características a considerar ao selecionar um Sistema Operacional de Rede são desempenho, ferramentas de gerenciamento e de monitoramento, segurança, escalabilidade e robustez ou tolerância a falhas. A seção a seguir define resumidamente cada uma dessas características.
    • 151 Desempenho Um Sistema Operacional de Rede deve ter bom desempenho ao ler e gravar arquivos na rede entre clientes e servidores. Ele deve ser capaz de manter a rapidez de desempenho sob cargas pesadas, quando muitos clientes estiverem fazendo solicitações. Desempenho consistente sob alta demanda é um padrão importante para um Sistema Operacional de Rede. Gerenciamento e monitoramento A interface de gerenciamento no servidor de Sistema Operacional de Rede fornece ferramentas para o monitoramento de servidores, administração de clientes, impressão de arquivos e gerenciamento do armazenamento em disco. A interface de gerenciamento fornece ferramentas para a instalação e a configuração de novos serviços. Além disso, os servidores exigem monitoramento e ajustes regulares. Segurança Um Sistema Operacional de Rede deve proteger os recursos compartilhados sob seu controle. A segurança inclui a autenticação do acesso do usuário aos serviços, para impedir o acesso não autorizado aos recursos da rede. Segurança também significa executar criptografia para proteger informações, à medida que elas trafegam entre clientes e servidores. Escalabilidade Escalabilidade é a capacidade de um Sistema Operacional de Rede de crescer sem sofrer degradação em seu desempenho. O Sistema Operacional de Rede deve ser capaz de sustentar o desempenho à medida que novos usuários passem a integrar a rede e novos servidores sejam adicionados para suportá-los. Robustez/tolerância a falhas Um indicador de robustez é a capacidade de oferecer serviços de forma consistente sob carga pesada e sustentar seus serviços em caso de falha dos componentes ou dos processos. O uso de dispositivos de disco redundantes e o balanceamento da carga de trabalho através de vários servidores pode aumentar a robustez de um Sistema Operacional de Rede. 6.1.5 Microsoft NT, 2000 e NET Desde o lançamento do Windows 1.0 em novembro de 1985, a Microsoft produziu muitas versões dos sistemas operacionais Windows, com aprimoramentos e alterações para suportar diversos tipos de usuários e finalidades.
    • 152 A Figura resume o Sistema Operacional Windows atual. O NT 4 foi criado para fornecer um ambiente para assuntos de missão crítica que seria mais estável do que os sistemas operacionais Microsoft convencionais. Ele está disponível para desktops (NT 4.0 Workstation) e servidores (NT 4.0 Server). Uma vantagem do NT sobre os Sistemas Operacionais Microsoft anteriores é que os programas em DOS e outros mais antigos do Windows podem ser executados em máquinas virtuais (VMs). As falhas de programação são isoladas e não exigem que o sistema seja reinicializado. O Windows NT fornece uma estrutura de domínio para controlar o acesso de usuários e de clientes aos recursos do servidor. Ele é administrado através da aplicação Gerenciador de usuários para domínios no controlador de domínio. Cada domínio NT exige um controlador de domínio primário individual, que detém o banco de dados SAM (Security Accounts Management, gerenciamento de contas de segurança) e que pode ter um ou mais controladores de domínio backup, cada um dos quais contém uma cópia apenas de leitura do SAM. Quando um usuário tenta efetuar login, as informações da conta são enviadas ao banco de dados SAM. Se as informações relativas a essa conta estiverem armazenadas no banco de dados, o usuário será autenticado para o domínio e terá acesso à estação de trabalho e aos recursos da rede. Com base no kernel NT, o Windows 2000 mais recente tem versões para desktop e para servidor. O Windows 2000 suporta tecnologia "plug-and-play", permitindo a instalação de novos dispositivos sem a necessidade de reinicializar o sistema. O Windows 2000 também inclui um sistema de criptografia de arquivos para a segurança dos dados no disco rígido. O Windows 2000 permite que objetos, tais como usuários e recursos, sejam colocados em objetos container chamados de OUs (organizational units, unidades organizacionais). A autoridade administrativa sobre cada OU pode ser delegada a um usuário ou a um grupo. Essa característica permite controle mais específico do que é possível com o Windows NT 4.0. O Windows 2000 Professional não foi criado para ser um Sistema Operacional de Rede completo. Ele não fornece controlador de domínio, servidor DNS, servidor DHCP nem presta qualquer dos serviços que podem ser implementados com o Windows 2000 Server. A finalidade principal do Windows 2000 Professional é ser parte de um domínio como sistema operacional do lado do cliente. O tipo de hardware que pode ser instalado no sistema é limitado. O Windows 2000 Professional pode fornecer recursos limitados de servidor para redes pequenas e ponto-a-ponto. Esses recursos podem ser um servidor de arquivos, de impressão, de FTP e um servidor da Web, mas eles suportarão apenas um máximo de dez conexões simultâneas. O Windows 2000 Server acrescenta aos recursos do Windows 2000 Professional muitas novas funções específicas de servidor. Ele também pode operar como servidor de arquivos, de impressão, de Web e de aplicações. O recurso Active Directory Services do Windows 2000 Server funciona como o ponto centralizado de gerenciamento de usuários, grupos, serviços de segurança e recursos de rede. Ele inclui os recursos multipropósito exigidos para grupos de
    • 153 trabalho e filiais, como também para implementações em departamentos de servidores de arquivos, de impressão, de aplicações, de Web e de comunicação. O Windows 2000 Server foi criado para uso em ambientes de empresas de pequeno a médio porte. Ele proporciona conectividade integrada com sistemas Novell NetWare, UNIX e AppleTalk. Ele também pode ser configurado como um servidor de comunicações, para fornecer serviços de rede de discagem para usuários móveis. O Windows 2000 Advanced Server fornece o suporte adicional de hardware e de software necessário para empresas e redes extremamente grandes. O Windows .NET Server foi construído com base no kernel Windows 2000 Server, mas adaptado para oferecer um sistema seguro e confiável para a execução de sites da Web e de FTP em nível empresarial, a fim de competir com os sistemas operacionais de servidores Linux e UNIX. O Windows .NET Server oferece o XML Web Services a empresas que executam de médio a alto volume de tráfego da Web. 6.1.6 UNIX, Sun, HP e LINUX Origens do UNIX UNIX é um grupo de sistemas operacionais que teve origem em 1969 na Bell Labs. Desde o início, o UNIX foi destinado a suportar vários usuários e tarefas. O UNIX também foi um dos primeiros sistemas operacionais a incluir suporte para protocolos de rede de Internet. A história do UNIX, que ultrapassa 30 anos, é complicada porque muitas empresas e organizações contribuíram para o seu desenvolvimento.
    • 154 O UNIX foi escrito primeiramente em linguagem assembly, um conjunto primitivo de instruções que controla as instruções internas de um computador. Entretanto, o UNIX podia ser executado apenas em um tipo específico de computador. Em 1971, Dennis Ritchie criou a linguagem C. Em 1973, Ritchie, juntamente com seu colega programador da Bell Labs, Ken Thompson, reescreveu os programas do sistema UNIX em linguagem C. Como a linguagem C é de nível mais elevado, o UNIX podia ser movido ou levado para outro computador com muito menor esforço de programação. A decisão de desenvolver esse sistema operacional portátil mostrou ser a chave do sucesso do UNIX. Nos anos 70, o UNIX evoluiu através do trabalho de desenvolvimento de programadores da Bell Labs e de várias universidades, notadamente a University of California, em Berkeley. Quando o UNIX começou a ser comercializado, nos anos 80, foi usado para ser executado em potentes servidores de rede, mas não em computadores desktop. Hoje, há dezenas de diferentes versões do UNIX, inclusive as seguintes: • Hewlett Packard UNIX (HP-UX) • Berkeley Software Design, Inc. (BSD UNIX), que produziu derivações como o FreeBSD • Santa Cruz Operation (SCO) UNIX • Sun Solaris • IBM UNIX (AIX) O UNIX, em suas várias formas, continua a se firmar como um Sistema Operacional confiável, seguro, a ser escolhido para aplicações críticas, cruciais para a operação de um negócio ou de outra organização. O UNIX também tem integração estreita com o TCP/IP. O TCP/IP basicamente desenvolveu-se a partir do UNIX, devido à necessidade de comunicações de rede local e WAN. O Sun Microsystems Solaris Operating Environment, com seu Sistema Operacional principal, o SunOS, é uma implementação de 64 bits versátil, de alto desempenho, do UNIX. O Solaris é executado em uma ampla variedade de computadores, desde computadores baseados em Intel até potentes mainframes e supercomputadores. O Solaris é hoje a versão mais amplamente usada do UNIX no mundo para grandes redes e sites da Web na Internet. A Sun também é a empresa que desenvolveu a tecnologia Java "Write Once, Run Anywhere". Apesar da popularidade do Microsoft Windows em redes locais corporativas, grande parte da Internet é executada em potentes sistemas UNIX. Embora o UNIX seja normalmente associado a hardware dispendioso e não seja amigável, desenvolvimentos recentes, inclusive a criação do Linux, mudaram essa imagem. Origens do Linux Em 1991, um estudante finlandês chamado Linus Torvalds começou a trabalhar em um sistema operacional para um computador baseado em Intel 80386. Torvalds ficou frustrado com o estado de sistemas operacionais de desktop como, por exemplo, o DOS, e com a despesa e os problemas de licenciamento associados ao UNIX comercial. Ele partiu, então, para o desenvolvimento de um sistema operacional semelhante ao UNIX na operação, porém usando código de software aberto e completamente gratuito para todos os usuários.
    • 155 Seu trabalho levou a um esforço de colaboração mundial para o desenvolvimento do Linux, um sistema operacional de origem aberta, com aparência e comportamento semelhantes aos do UNIX. No final dos anos 90, o Linux tornou-se uma alternativa viável ao UNIX em servidores e ao Windows no desktop. A popularidade do Linux em PCs desktop também contribuiu para o interesse no uso de distribuições do UNIX como, por exemplo, FreeBSD e Sun Solaris em desktop. Versões do Linux podem ser executadas hoje em quase todos os processadores de 32 bits, inclusive os chips Intel 80386, Motorola 68000, Alpha e PowerPC. Como ocorre com o UNIX, há diversas versões do Linux. Algumas são downloads gratuitos da Web; outras são distribuídas comercialmente. Veja a seguir algumas das mais populares versões do Linux: • Red Hat Linux – distribuído pela Red Hat Software • OpenLinux – distribuído pela Caldera • Corel Linux • Slackware • Debian GNU/Linux • SuSE Linux O Linux é hoje um dos sistemas operacionais mais potentes e confiáveis do mundo. Por isso, já fez incursões como plataforma para usuários avançados e no campo dos servidores empresariais. O Linux é implementado menos freqüentemente como sistema operacional de desktops corporativos. Embora haja GUIs (graphical user interfaces, interfaces gráficas de usuário) disponíveis para torná-lo mais amigável, a maioria dos usuários iniciantes considera mais difícil usar o Linux do que o Mac OS ou o Windows. Atualmente, muitas empresas como, por exemplo, Red Hat, SuSE, Corel e Caldera, empenham-se em viabilizar o Linux como sistema operacional de desktops. O suporte a aplicações deve ser considerado quando o Linux for implementado em um sistema de desktop. O número de aplicações de produtividade empresarial é limitado em comparação com o Windows. Entretanto, alguns fornecedores fornecem software de emulação de Windows como, por exemplo, WABI e WINE, o que permite que muitas aplicativos Windows sejam executadas no Linux. Além disso, empresas, tais como a Corel, estão fazendo versões Linux de seus conjuntos para escritório e de outros conhecidos pacotes de software. Conexão em rede com o Linux Distribuições recentes do Linux têm componentes de rede incorporados para conexão com uma rede local, estabelecendo uma conexão discada com a Internet ou com outra rede remota. Na verdade, o TCP/IP é integrado ao kernel Linux, em vez de ser implementado como subsistema separado. Algumas vantagens do Linux como sistema operacional de desktops e clientes de rede incluem: • Ele é um verdadeiro sistema operacional de 32 bits. • Ele suporta multitarefas preemptivas e memória virtual. • O código é de origem aberta e, assim, está disponível para ser aperfeiçoado por qualquer pessoa. 6.1.7 Apple Os computadores Apple Macintosh foram criados para proporcionar fácil conexão de rede em situações de grupos de trabalho ponto-a-ponto. As interfaces de rede incluem-se como parte do hardware e os componentes de rede são incorporados ao sistema operacional Macintosh. Os adaptadores de rede Ethernet e Token Ring estão disponíveis para o Macintosh.
    • 156 O Macintosh, ou Mac, é popular em muitas instituições educacionais e departamentos gráficos corporativos. Os Macs podem ser conectados um ao outro em grupos de trabalho e podem acessar servidores de arquivos AppleShare. Eles também podem ser conectados a redes locais de PCs que incluem servidores Microsoft, NetWare ou UNIX. Mac OS X (10) O sistema operacional Macintosh, Mac OS X, é às vezes chamado de Apple System 10. Algumas das características do Mac OS X estão na GUI chamada Aqua. A GUI Aqua lembra uma mistura da GUI do Microsoft Windows XP e a do Linux X-windows. O Mac OS X foi criado para proporcionar recursos para o computador doméstico como, por exemplo, navegação na Internet, edição de vídeo e de fotos e jogos, embora proporcione recursos que oferecem ferramentas potentes e personalizáveis necessárias em um sistema operacional para os profissionais de IT (tecnologia de informação). O Mac OS X é totalmente compatível com versões anteriores dos sistemas operacionais Mac. O Mac OS X fornece um novo recurso que permite conectividade pra AppleTalk e Windows. O principal sistema operacional Mac OS X é chamado de Darwin. Darwin é um sistema potente, baseado em UNIX, que proporciona estabilidade e desempenho. Esses aprimoramentos fornecem ao Mac OS X suporte para memória protegida, multitarefas preemptivas, gerenciamento avançado de memória e multiprocessamento simétrico. Isso torna o Mac OS X um forte competidor entre os sistemas operacionais. 6.1.8 Conceito de serviço em servidores Os Sistemas Operacionais de Rede foram criados para fornecer processos de rede aos clientes. Os serviços de rede incluem a WWW, compartilhamento de arquivos, correio eletrônico, serviços de diretório, de impressão e gerenciamento remoto. O gerenciamento remoto é um serviço eficaz, que permite que os administradores configurem sistemas de rede a quilômetros de distância. É importante compreender que esses processos de rede são chamados de serviços no Windows 2000 e de daemons no UNIX e no Linux. Os processos de rede oferecem todos as mesmas funções, mas o modo como esses processos são carregados e interagem com o Sistema Operacional de Rede é diferente em cada sistema operacional. Dependendo do Sistema Operacional de Rede, alguns desses processos-chave de rede podem ser ativados durante uma instalação padrão. A maioria dos processos de rede tem por base o conjunto de protocolos TCP/IP. Como o TCP/IP é um conjunto de protocolos aberto, bem conhecido, os serviços baseados em TCP/IP são vulneráveis a varreduras não autorizadas e a ataques maliciosos. Os ataques de DoS (denial of service, negativa de serviço), vírus de computador e worms rapidamente disseminados pela Internet forçaram os criadores do Sistema Operacional de Rede a reconsiderar quais serviços de rede são iniciados automaticamente.
    • 157 Versões recentes de Sistema Operacional de Redes populares como, por exemplo, Windows 2000 e Red Hat Linux 7, restringem o número de serviços de rede ativos por padrão. Quando um Sistema Operacional de Rede é implementado, serviços-chave de rede precisarão ser ativados manualmente. Quando um usuário decide imprimir em um ambiente de impressão em rede, o trabalho é enviado à fila apropriada para a impressora selecionada. As filas de impressão empilham os trabalhos de impressão recebidos e os atendem na ordem FIFO (first-in, first-out, primeiro a entrar, primeiro a sair). Quando um trabalho é adicionado à fila, ele é colocado no final da fila de espera e impresso por último. O tempo de espera pela impressão pode, às vezes, ser longo, dependendo do tamanho dos trabalhos que estejam na frente. Um serviço de impressão em rede fornecerá aos administradores do sistema as ferramentas necessárias para gerenciar o grande número de trabalhos de impressão roteados em toda a rede. Isso inclui a capacidade de priorizar, interromper e até mesmo excluir trabalhos de impressão que estejam aguardando execução. Compartilhamento de arquivos A capacidade de compartilhar arquivos em rede é um serviço de rede importante. Há muitos protocolos e aplicativos de compartilhamento de arquivos em uso atualmente. Em uma rede corporativa ou doméstica, os arquivos normalmente são compartilhados com o uso do Windows File Sharing ou do protocolo NFS. Nesses ambientes, um usuário final pode nem mesmo saber se determinado arquivo está em um disco local ou em um servidor remoto. Com o Windows File Sharing e o NFS, os usuários podem facilmente movimentar, criar e excluir arquivos em diretórios remotos. FTP Muitas organizações disponibilizam arquivos para funcionários que se encontram em locais remotos, para clientes e para o público em geral usando o FTP. Os serviços de FTP são disponibilizados para o público em conjunto com os serviços de Web. Por exemplo, um usuário pode navegar em um site da Web, ler sobre uma atualização de software em uma página da Web e, em seguida, fazer a atualização usando o FTP. Empresas menores podem usar um único servidor para fornecer serviços de FTP e de HTTP, enquanto empresas maiores podem optar por usar servidores FTP dedicados. Embora os clientes de FTP devam efetuar login, muitos servidores FTP são configurados para permitir acesso anônimo. Quando os usuários acessam um servidor anonimamente, não precisam ter uma conta de usuário no sistema. O protocolo FTP também permite que os usuários façam upload, renomeiem e excluam arquivos; por isso, os administradores devem ter cautela ao configurar um servidor FTP para controlar os níveis de acesso. O FTP é um protocolo orientado a sessões. Os clientes devem abrir uma sessão da camada de aplicação com o servidor, efetuar a autenticação e executar uma ação como, por exemplo, download ou upload. Se a sessão do cliente ficar inativa durante um certo período, ele será desconectado pelo servidor. Esse período de inatividade é chamado de tempo limite de inatividade. O tempo limite de inatividade de um servidor FTP varia, dependendo do software. Serviços de Web A World Wide Web é hoje o serviço de rede mais visível. Em menos de uma década, a World Wide Web tornou-se uma rede global de informação, comércio, educação e entretenimento. Milhões de empresas, organizações e indivíduos mantêm sites da web na Internet. Os sites da web são coleções de páginas da web armazenadas em um servidor ou em um grupo de servidores. A World Wide Web baseia-se no modelo cliente-servidor. Os clientes tentam estabelecer sessões TCP com servidores da Web. Uma vez estabelecida uma sessão, um cliente pode solicitar dados do servidor. O HTTP normalmente controla solicitações dos clientes e transferências dos servidores. O software cliente da Web inclui navegadores da Web com GUI como, por exemplo, o Netscape Navigator e o Internet Explorer.
    • 158 As páginas da Web são hospedadas em computadores que executam software de serviços da Web. Os dois pacotes de software de servidor da Web mais comuns são o Microsoft Internet Information Services (IIS) e o Apache Web Server. O Microsoft IIS é executado em plataforma Windows e o Apache Web Server é executado em plataformas UNIX e Linux. Um pacote de software de serviços de Web está disponível para praticamente todos os sistemas operacionais atualmente em produção. DNS O protocolo DNS traduz um nome de Internet como, por exemplo, www.cisco.com, para um endereço IP. Muitos aplicativos baseiam-se nos serviços de diretório fornecidos pelo DNS para fazer esse trabalho. Os navegadores da Web, programas de correio eletrônico e de transferência de arquivos usam os nomes de sistemas remotos. O protocolo DNS permite que esses clientes façam solicitações aos servidores DNS na rede para a tradução de nomes para endereços IP. Os aplicativos podem, então, usar os endereços para enviar suas mensagens. Sem esse serviço de pesquisa de diretórios, seria quase impossível usar a Internet. DHCP O propósito do DHCP é permitir que computadores individuais em uma rede IP aprendem suas configurações TCP/IP do(s) servidor(es) DHCP. Os servidores DHCP não têm informações sobre os computadores individuais até que as informações sejam solicitadas. O propósito geral disso é reduzir o trabalho necessário para administrar uma grande rede IP. A informação mais significativa distribuída desse modo é o endereço IP que identifica o host na rede. O DHCP também permite a recuperação e a capacidade de renovar endereços IP através de um mecanismo de aluguel. Esse mecanismo aloca um endereço IP por um período específico, libera-o e atribui um novo endereço IP. O DHCP permite que tudo isso seja feito por um servidor DHCP, o que poupa ao administrador um tempo considerável. 6.2 Gerenciamento de Redes 6.2.1 Introdução ao gerenciamento de rede À medida que uma rede evolui e cresce, ela torna-se um recurso mais crucial e indispensável à organização.
    • 159 Com a disponibilização de mais recursos de rede para os usuários, a rede torna-se mais complexa e sua manutenção, mais complicada. A perda de recursos da rede e o desempenho deficiente são resultados da complexidade crescente e não são bem aceitos pelos usuários. O administrador da rede deve gerenciar a rede ativamente, diagnosticar problemas, impedir a ocorrência de situações e proporcionar o melhor desempenho da rede para os usuários. Em algum momento, as redes tornam-se muito grandes para serem gerenciadas sem ferramentas de gerenciamento automatizado de rede. O Gerenciamento de Rede inclui as seguintes tarefas: • Monitoramento da disponibilidade da rede • Melhoria da automação • Monitoramento do tempo de resposta • Fornecimento de recursos de segurança • Re-roteamento do tráfego • Restauração de capacidades • Registro de usuários Os pontos básicos que direcionam o gerenciamento de rede são mostrados e explicados abaixo: • Controle do patrimônio corporativo – Se os recursos de rede não forem controlados com eficiência, eles não fornecerão os resultados solicitados pela administração. • Controle da complexidade – Com o crescimento maciço do número de componentes, usuários, interfaces, protocolos e fornecedores de serviços de rede, a perda de controle da rede e de seus recursos ameaça o gerenciamento. • Serviço aprimorado – Os usuários esperam que o nível do serviço seja mantido ou melhorado com o crescimento da rede e a maior distribuição dos recursos. • Equilíbrio de várias necessidades – Os usuários devem receber vários aplicativos em um determinado nível de suporte, com solicitações específicas nas áreas de desempenho, disponibilidade e segurança. • Redução do tempo de inatividade – Garantir a alta disponibilidade de recursos, através de um projeto redundante adequado. • Controle de custos – Monitorar e controlar a utilização de recursos, para que as necessidades dos usuários possam ser atendidas a um custo razoável. Alguns termos básicos de gerenciamento de rede são apresentados na Figura.
    • 160 6.2.2 OSI e modelo de gerenciamento de rede A ISO (International Standards Organization) criou uma comissão para produzir um modelo de gerenciamento de rede sob a direção do grupo OSI. Esse modelo tem quatro partes: • Organização • Informação • Comunicação • Funcional Essa é uma visão de gerenciamento de rede de cima para baixo, dividida em quatro submodelos e reconhecida pelo padrão OSI. O modelo de Organização descreve os componentes do gerenciamento de rede como, por exemplo, gerente, agente, etc. e sua relação. A organização desses componentes leva a diferentes tipos de arquitetura, que serão discutidos adiante. O modelo de Informação trata da estrutura e do armazenamento de informações de gerenciamento de rede.
    • 161 Essas informações ficam armazenadas em um banco de dados chamado de MIB (management information base, base de informações de gerenciamento). A ISO definiu a SMI (structure of management information, estrutura das informações de gerenciamento) para definir a sintaxe e a semântica das informações de gerenciamento armazenadas na MIB. As MIBs e a SMI serão abordadas mais profundamente adiante. O modelo de Comunicação refere-se ao modo como os dados de gerenciamento são comunicados entre o agente e o processo de gerenciamento. Ele trata do protocolo de transporte, do protocolo de aplicação e de comandos e respostas entre os pontos. O modelo Funcional lida com os aplicativos de gerenciamento de rede residentes na Estação de Gerenciamento de rede. O modelo de gerenciamento de rede OSI classifica cinco áreas de funcionamento, às vezes chamadas de modelo FCAPS: • Falha • Configuração • Contabilidade • Desempenho • Segurança Esse modelo de gerenciamento de rede ganhou ampla aceitação por parte dos fabricantes como um modo útil de descrever os requisitos de qualquer sistema de gerenciamento de rede.
    • 162 6.2.3 Padrões SNMP e CMIP Para permitir a interoperabilidade do gerenciamento em muitas plataformas de rede diferentes, são necessários padrões de gerenciamento de rede para que os fabricantes possam implementar e aderir a esses padrões. Surgiram dois padrões principais: • Simple Network Management Protocol – comunidade IETF • Common Management Information Protocol – Comunidade de telecomunicações O SNMP refere-se, na verdade, a um conjunto de padrões para gerenciamento de rede, incluindo um protocolo, uma especificação de estrutura de banco de dados e um conjunto de objetos de dados. O SNMP foi adotado como padrão para internets TCP/IP em 1989 e tornou- se muito popular. Uma atualização, conhecida como SNMP versão 2c (SNMPv2c), foi adotada em 1993. O SNMPv2c fornece suporte para estratégias de gerenciamento de rede centralizadas e distribuídas e incluiu aprimoramentos na SMI (structure of management information, estrutura das informações de gerenciamento), nas operações do protocolo, na arquitetura de gerenciamento e na segurança. Ele foi criado para ser executado em redes baseadas em OSI e também em TCP/IP. Desde então, o SNMPv3 foi liberado. Para solucionar as deficiências de segurança do SNMPv1 e do SNMPv2c, o SNMPv3 fornece acesso seguro às MIBs via autenticação e criptografia de pacotes através da rede. O CMIP é um protocolo de gerenciamento de rede OSI criado e padronizado pela ISO, para o monitoramento e controle de redes heterogêneas. 6.2.4 Operação do SNMP O SNMP é um protocolo de camada de aplicação criado para facilitar a troca de informações de gerenciamento entre dispositivos de rede. Usando o SNMP para acessar dados de informação de gerenciamento tais como pacotes por segundo enviados em uma interface ou número de conexões TCP abertas, os administradores de rede podem administrar mais facilmente o desempenho da rede para localizar e solucionar problemas ali existentes. Hoje, o SNMP é o protocolo mais popular para o gerenciamento de diversas internetworks comerciais, universitárias e de pesquisa. A atividade de padronização é contínua, à medida que os fabricantes desenvolvem e lançam a última palavra em aplicativos de gerenciamento baseados em SNMP. O SNMP é um protocolo simples, embora seu conjunto de recursos seja suficientemente potente para lidar com os difíceis problemas que envolvem o gerenciamento de redes heterogêneas. O modelo organizacional para o gerenciamento de redes baseado em SNMP inclui quatro elementos:
    • 163 • Estação de gerenciamento • Agente de gerenciamento • Base de informações de gerenciamento • Protocolo de gerenciamento de rede A Estação de Gerenciamento de rede normalmente é uma estação de trabalho isolada, mas ela pode ser implementada em vários sistemas. Isso inclui um conjunto de software chamado de Aplicativo de Gerenciamento de rede. O Aplicativo de Gerenciamento de rede inclui uma interface do usuário para permitir que os gerentes de rede autorizados gerenciem a rede. Ele responde aos comandos dos usuário e a comandos enviados para gerenciar agentes em toda a rede. Os agentes de gerenciamento são plataformas e dispositivos-chave de rede, outros hosts, roteadores, pontes e hubs, equipados com SNMP para que possam ser gerenciados. Eles respondem a solicitações de informações e de ações da Estação de Gerenciamento de rede como, por exemplo, pesquisa, e podem fornecer à Estação de Gerenciamento de rede informações importantes mas não solicitadas como, por exemplo, armadilhas. Todas as informações de gerenciamento de um agente específico são armazenadas na base de informações de gerenciamento, na área destinada a esse agente. Um agente pode controlar os seguintes itens: • Número e estado de seus circuitos virtuais • Número de determinados tipos de mensagens de erro recebidas • Número de bytes e de pacotes recebidos e enviados no dispositivo • Tamanho máximo da fila de saída, para roteadores e outros dispositivos de internetworking • Mensagens de broadcast enviadas e recebidas • Ativação e desativação de interfaces de rede A Estação de Gerenciamento de rede executa uma função de monitoramento, recuperando os valores da MIB. Ela pode fazer com que uma ação seja executada em um agente. A comunicação entre o gerenciador e o agente é feita por um protocolo de gerenciamento de rede da camada de aplicação. O SNMP usa UDP (User Datagram Protocol, protocolo de datagrama de usuário) e comunica-se através das portas 161 e 162. Ele baseia-se na troca de mensagens. Há três tipos de mensagens comuns: • Get (obter) – Permite que a estação de gerenciamento recupere o valor de objetos MIB do agente. • Set (definir) – Permite que a estação de gerenciamento defina o valor de objetos MIB do agente. • Trap (amadilha) – Permite que o agente notifique a estação de gerenciamento sobre eventos significativos. Esse modelo é chamado de modelo de duas camadas.
    • 164 Entretanto, ele presume que todos os elementos de rede sejam gerenciáveis pelo SNMP. Isso nem sempre ocorre, pois alguns dispositivos têm uma interface de gerenciamento proprietária. Nesses casos, é necessário um modelo de três camadas. Um gerente de rede que queira obter informações ou controlar esse nó proprietário comunica- se com um agente proxy. O agente proxy traduz a solicitação SNMP do gerente para uma forma apropriada ao sistema de destino e usa um protocolo de gerenciamento proprietário apropriado para comunicar-se com o sistema de destino. As respostas do destino ao proxy são traduzidas para mensagens SNMP e comunicadas de volta ao gerente. Os aplicativos de gerenciamento de rede freqüentemente delegam alguma funcionalidade de gerenciamento de rede em uma sonda de um RMON (remote monitor, monitor remoto). A sonda RMON coleta informações de gerenciamento localmente e o gerente de rede recupera periodicamente um resumo desses dados. A Estação de Gerenciamento de rede é uma estação de trabalho comum, que executa um sistema operacional típico.
    • 165 Ela tem uma grande quantidade de RAM, para manter todos os aplicativos de gerenciamento em execução ao mesmo tempo. O gerenciador executa uma pilha de protocolos de rede típica como, por exemplo, TCP/IP. Os aplicativos de gerenciamento de rede baseiam-se no sistema operacional do host e na arquitetura de comunicação. Exemplos de aplicativos de gerenciamento de rede são o Ciscoworks2000, o HP Openview e o SNMPv2c. Como já foi discutido, o gerenciador pode ser uma estação de trabalho isolada, centralizada, que envia consultas a todos os agentes, independentemente da sua localização.
    • 166 Em uma rede distribuída, uma arquitetura descentralizada é mais apropriada, com uma Estação de Gerenciamento de rede local em cada ponto. Essa Estação de Gerenciamento de rede pode atuar em uma arquitetura cliente-servidor, na qual uma Estação de Gerenciamento de rede atua como servidor principal e as outras, como clientes. Os clientes enviam seus dados ao servidor principal para armazenamento centralizado. Uma alternativa é que todas as Estações de Gerenciamento de rede distribuídas tenham igual responsabilidade, cada uma com seus próprios bancos de dados de gerenciamento, para que as informações de gerenciamento sejam distribuídas nas Estações de Gerenciamento de rede correspondentes.
    • 167 6.2.5 Estrutura de informações de gerenciamento e de MIBs Uma MIB é usada para armazenar as informações estruturadas que representam elementos de rede e seus atributos. A estrutura propriamente dita é definida em um padrão chamado SMI, que define os tipos de dados que podem ser usados para armazenar um objeto, como esses objetos são chamados e como são codificados para transmissão em uma rede. As MIBs são depósitos altamente estruturados de informações sobre um dispositivo. Há muitas MIBs padrão, mas há mais MIBs proprietárias para gerenciar exclusivamente os dispositivos de diferentes fabricantes. A SMI MIB original foi classificada em oito grupos diferentes, totalizando 114 objetos gerenciados. Mais grupos foram acrescentados para definir a MIB-II, que hoje substitui a MIB-I. Todos os objetos gerenciados no ambiente SNMP são organizados em uma estrutura hierárquica ou de árvore. Os objetos-folha da árvore, que são os elementos que aparecem na parte inferior do diagrama, são os objetos gerenciados. Cada objeto gerenciado representa algum recurso, atividade ou informação relacionada que deve ser gerenciada. Um identificador de objetos exclusivo, que é um número em notação de pontos, identifica cada objeto de gerenciamento. Cada identificador de objeto é descrito com o uso de ASN.1 (abstract syntax notation, notação de sintaxe abstrata).
    • 168 O SNMP usa esses identificadores de objetos para identificar as variáveis MIB a recuperar ou modificar. Os objetos que se encontram no domínio público são descritos em MIBs introduzidas nas RFCs (Request for Comments, solicitação de comentários). Eles são facilmente accessíveis no endereço: http://www.ietf.org Todos os fabricantes são incentivados a divulgar suas definições de MIB. Uma vez atribuído um valor corporativo, o fabricante será responsável por criar e manter subárvores. 6.2.6 Protocolo SNMP O agente é uma função de software incorporada na maioria dos dispositivos conectados em rede como, por exemplo, roteadores, switches, hubs gerenciados, impressoras e servidores.
    • 169 Ele é responsável por processar solicitações SNMP do gerente. É responsável também pela execução de rotinas que mantêm variáveis conforme definidas nas várias MIBs suportadas. A interação entre o gerenciador e o agente é facilitada pelo SNMP. O termo "simples" vem do número restrito de tipos de mensagens que integram a especificação de protocolo inicial. A estratégia foi criada para facilitar aos desenvolvedores a construção de recursos de gerenciamento em dispositivos de rede. A especificação de protocolo inicial é chamada de SNMPv1 (versão 1). Há três tipos de mensagens SNMP enviadas em nome de uma Estação de Gerenciamento de rede. São eles: GetRequest, GetNextRequest e SetRequest. Todas as três mensagens são confirmadas pelo agente na forma de uma mensagem GetResponse. Um agente podem enviar uma mensagem de Armadilha em resposta a um evento que afete a MIB e os recursos subjacentes. O desenvolvimento do SNMPv2c enfocou as limitações do SNMPv1. Os aprimoramentos mais perceptíveis foram a introdução do tipo de mensagem GetBulkRequest e a adição de contadores de 64 bits à MIB. A recuperação de informações com o GetRequest e o GetNextRequest foi um método ineficiente de coletar informações. Apenas uma variável por vez poderia ser solicitada com o SNMPv1. O GetBulkRequest ataca essa deficiência, recebendo mais informações com uma única solicitação. Em segundo lugar, os contadores de 64 bits atacaram o problema do rollover muito rápido, especialmente com links de velocidade mais alta como, por exemplo, o Gigabit Ethernet. A entidade de gerenciamento também é chamada de gerenciador ou Estação de Gerenciamento de rede.
    • 170 Ela é responsável por solicitar informações do agente. As solicitações baseiam-se em outras solicitações muito específicas. O gerenciador processa as informações recuperadas de diversas formas. As informações recuperadas podem ser registradas para análise posterior, exibidas com o uso de um utilitário gráfico ou comparadas com valores pré-configurados para testar se condições específicas foram atendidas. Nem todas as funções do gerenciador baseiam-se na recuperação de dados. Há também a capacidade de usar alterações de um valor no dispositivo gerenciado. Esse recurso permite que um administrador configure um dispositivo gerenciado usando SNMP. A interação entre o gerenciador e o dispositivo gerenciado introduz tráfego na rede. Deve-se ter cautela ao introduzir gerenciadores na rede. Estratégias agressivas de monitoramento podem afetar negativamente o desempenho da rede. As utilizações de largura de banda aumentarão, o que pode ser um problema para ambientes de WAN. Além disso, o monitoramento tem um impacto sobre o desempenho dos dispositivos que estão sendo monitorados, pois eles são solicitados a processar as solicitações do gerenciador. Este processamento não deve ter precedência sobre os serviços de produção. Uma regra geral é que um volume mínimo de informações deve ser pesquisado com a menor freqüência possível. Determine que dispositivos e links são mais críticos e que tipos de dados são solicitados. O SNMP usa UDP (user diagram protocol, protocolo de diagrama de usuário) como protocolo de transporte. Como o UDP é sem conexão e não confiável, é possível que o SNMP perca mensagens. O SNMP em si não garante a entrega; assim, é opção do aplicativo que o utiliza enfrentar o problema das mensagens perdidas. Cada mensagem SNMP contém uma string em texto claro, chamada de community string. A community string é usada como senha para restringir o acesso a dispositivos gerenciados. O SNMPv3 atacou os problemas de segurança surgidos com a transmissão da community string em texto claro.
    • 171 Um exemplo da aparência da mensagem SNMPv2c é ilustrado na Figura. Uma apresentação detalhada do protocolo pode ser encontrada no padrão de Internet RFC1905. O fato de a community string estar em texto claro não surpreende ninguém que tenha estudado o conjunto de protocolos IP (Internet Protocol, protocolo de internet). Todos os campos especificados no conjunto de protocolos estão em texto claro, com exceção das especificações de autenticação de segurança e de criptografia. A community string foi essencialmente um espaço reservado de segurança até que o grupo de trabalho do SNMPv2 pudesse ratificar os mecanismos de segurança. Os esforços foram deferidos para o grupo de trabalho do SNMPv3. Todos os aplicativos de gerenciamento baseados em SNMP precisam ser configurados para usar as seqüências de caracteres de comunidade. Algumas organizações freqüentemente alteram os valores das seqüências de caracteres de comunidade para reduzir o risco de atividade maliciosa gerada com o uso não autorizado do serviço SNMP. Apesar da deficiência associada à autenticação baseada em comunidade, as estratégias de gerenciamento ainda se baseiam em SNMPv1. Os dispositivos Cisco suportam tipos de mensagens SNMPv3 e os recursos de maior capacidade de segurança, mas a maioria dos aplicativos de software de gerenciamento não suporta o SNMPv3.
    • 172 O SNMPv3 suporta a existência simultânea de vários modelos de segurança.
    • 173 6.2.7 Configuração do SNMP Para que a Estação de Gerenciamento de rede possa comunicar-se com dispositivos conectados em rede, o dispositivo deverá ter SNMP ativado e as seqüências de caracteres de comunidade SNMP configuradas. Esses dispositivos são configurados com o uso da sintaxe de linha de comando descrita nos parágrafos abaixo. Mais de uma seqüência de caracteres apenas de leitura é suportada. O padrão na maioria dos sistemas para esta community string é público. Não é aconselhável usar o valor padrão em redes corporativas. Para definir a community string apenas de leitura usada pelo agente, use o comando a seguir: Router(config)#snmp-server communitystringro • String – Community string que funciona como senha e permite acesso ao protocolo SNMP • ro – (Opcional) Especifica acesso apenas de leitura. As estações de gerenciamento autorizadas podem apenas recuperar objetos MIB. Mais de uma seqüência de caracteres de leitura-gravação é suportada. Todos os objetos SNMP estão disponíveis para acesso de gravação. O padrão na maioria dos sistemas para esta community string é privado. Não é aconselhável usar este valor padrão em uma rede corporativa. Para definir a community string de leitura e gravação usada pelo agente, use o comando a seguir: Router(config)#snmp-server communitystringrw • rw – (Opcional) Especifica acesso de leitura e gravação. As estações de gerenciamento autorizadas podem recuperar e modificar objetos MIB Há várias seqüências de caracteres que podem ser usadas para especificar a localização do dispositivo gerenciado e o contato principal do sistema para o dispositivo. Router(config)#snmp-server locationtext Router(config)#snmp-server contacttext • text– Seqüência de caracteres que descreve informações de localização do sistema Esses valores são armazenados nos objetos MIB sysLocation e sysContact.
    • 174 6.2.8 RMON O RMON é um importante avanço no gerenciamento de internetworks. Ele define um MIB de monitoramento remoto que complementa o MIB-II e oferece ao gerente da rede informações vitais sobre a rede. A característica marcante do RMON é que, embora seja simplesmente uma especificação de um MIB, sem alterações no protocolo SNMP subjacente, ele proporciona uma expansão significativa na funcionalidade SNMP. Com o MIB-II, o gerente da rede pode obter informações puramente locais dos dispositivos individuais.Considere uma rede local com diversos dispositivos, cada um com um agente SNMP. Um gerenciador SNMP pode memorizar o volume de tráfego de entrada e de saída de cada dispositivo mas, com o MIB-II, ele não pode memorizar facilmente o tráfego de toda a rede local. O gerenciamento de rede em um ambiente de internetwork normalmente exige um monitor por sub-rede. O padrão RMON originalmente criado como IETF RFC 1271, hoje RFC 1757, foi projetado para prover monitoramento e diagnóstico proativos para redes locais distribuídas. Os dispositivos de gerenciamento, chamados de agentes ou sondas, permitem que, em segmentos críticos de rede, sejam criados alarmes definidos pelo usuário e que seja reunido um grande número de estatísticas vitais através da análise de todos os quadros de um segmento.
    • 175 O padrão RMON divide as funções de monitoramento em nove grupos para suportar topologias Ethernet e adiciona um décimo grupo no RFC 1513 para parâmetros exclusivos de TokenRing. O padrão RMON foi elaborado para ser implementado como uma arquitetura de computação distribuída, em que os agentes e sondas comunicam-se com uma estação de gerenciamento central, um cliente, usando SNMP. Esses agentes definiram estruturas SNMP MIB para todos os nove ou dez grupos RMON Ethernet ou TokenRing, permitindo a interoperabilidade entre fabricantes de ferramentas de diagnóstico baseadas em RMON. Os grupos RMON são definidos como: • Grupo Estatísticas – Mantém estatísticas de utilização e erro para a sub-rede ou segmento que está sendo monitorado. Exemplos são a utilização de largura de banda, broadcast, multicast, alinhamento CRC, fragmentos, etc. • Grupo Histórico – Mantém amostras estatísticas periódicas com base no grupo de estatísticas e os armazena para recuperação posterior. Exemplos são a utilização e a contagem de erros e de pacotes. • Grupo Alarmes – Permite que o administrador defina um intervalo de amostragem e o limite para cada item registrado pelo agente. Exemplos são valores absolutos ou relativos e limites ascendentes ou descendentes. • Grupo Hosts – Define a medição de vários tipos de tráfego para e dos hosts conectados à rede. Exemplos são pacotes e bytes enviados ou recebidos, erros e pacotes de broadcast e de multicast. • Grupo Hosts TopN – Fornece um relatório de hosts TopN com base nas estatísticas de grupos de hosts. • Grupo Matriz de Tráfego – Armazena estatísticas de erro e de utilização para pares de nós de comunicação da rede. Exemplos são os erros, bytes e pacotes. • Grupo Filtros – Um mecanismo de filtro que gera um fluxo de pacotes de quadros que correspondem ao padrão especificado pelo usuário. • Grupo Captura de pacotes – Define como os pacotes que atendem aos critérios do filtro são armazenados internamente. • Grupo Eventos – Permite o registro de eventos, também chamados de armadilhas geradas, juntamente com data e hora, para o gerente. Exemplos são os relatórios personalizados com base no tipo de alarme. 6.2.9 Syslog O utilitário de registro syslog da Cisco baseia-se no utilitário syslog da UNIX. Os eventos do sistema são normalmente registrados no console do sistema, a menos que este esteja desativado. O utilitário syslog é um mecanismo para que aplicativos, processos e o sistema operacional de dispositivos Cisco relatem atividades e condições de erro. O protocolo syslog é usado para permitir que os dispositivos Cisco enviem essas mensagens não solicitadas a uma estação de gerenciamento de rede. Todas as mensagens do syslog registradas são associadas a uma mensagem de timestamp, de instalação, de gravidade e de registro textual. Essas mensagens são, às vezes, o único meio para se obter subsídios sobre problemas de comportamento de algum dispositivo.
    • 176 O nível de gravidade indica a natureza crítica da mensagem de erro. Há oito níveis de gravidade: 0-7, sendo o nível 0 (zero) o mais crítico e o nível 7, o menos crítico. Os níveis são: 0 Emergências 1 Alertas 2 Críticos 3 Erros 4 Avisos 5 Notificações 6 Informativo 7 Depuração Os campos de instalação e de nível de gravidade são usados para o processamento de mensagens. Os níveis de 0 (zero) a 7 são tipos de instalação fornecidos para o processamento de mensagens de registro do cliente. O Cisco IOS adota como padrão o nível de gravidade 6. Esta definição é configurável. Para que a Estação de Gerenciamento de rede receba e registre mensagens do sistema de um dispositivo, esse dispositivo deve ter o syslog configurado. Veja abaixo uma revisão da sintaxe de linha de comando relativa à configuração desses dispositivos.
    • 177 Para permitir o registro em todos os destinos suportados: Router(config)#logging on Para enviar mensagens de registro a um host do servidor syslog como, por exemplo, o CiscoWorks2000: Router(config)#logginghostname | ip address Para definir o nível de gravidade como 6 (Informativo): Router(config)#logging trap informational Para incluir timestamp com mensagem do syslog: Router(config)#service timestamps log datetime Resumo Devem ter sido compreendidos os importantes conceitos a seguir: • As funções de uma estação de trabalho e de um servidor • As funções de vários equipamentos em um ambiente cliente/servidor • O desenvolvimento de Sistema Operacionais de Rede • Uma visão geral das várias plataformas Windows • Uma visão geral das alternativas aos sistemas operacionais Windows • Motivos para o gerenciamento de rede • As camadas do modelo OSI e de gerenciamento de rede • O tipo e a aplicação de ferramentas de gerenciamento de rede • A função desempenhada pelo SNMP e pelo CMIP no monitoramento de rede • Como o software de gerenciamento coleta informações e registra problemas • Como reunir relatórios sobre o desempenho de rede
    • 178 Estudo de Caso: WANs Este estudo de caso permitirá construir e configurar uma rede complexa utilizando as técnicas obtidas através do curso.