Lan token fddi_switching
Upcoming SlideShare
Loading in...5
×
 

Lan token fddi_switching

on

  • 346 views

 

Statistics

Views

Total Views
346
Views on SlideShare
346
Embed Views
0

Actions

Likes
0
Downloads
4
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Lan token fddi_switching Lan token fddi_switching Document Transcript

  • Visão geral de Token Ring e suas variantes A IBM desenvolveu a primeira rede Token Ring nos anos 70. Ela ainda é a principal tecnologia LAN da IBM e apenas perde para a Ethernet (IEEE 802.3) em termos de implementação da LAN. A especificação IEEE 802.5 é quase idêntica e completamente compatível com a rede Token Ring da IBM. A especificação IEEE 802.5 foi desenvolvida depois da Token Ring da IBM e continua a ofuscar o seu contínuo desenvolvimento. O termo Token Ring se refere à Token Ring da IBM e à especificação do IEEE 802.5 Tokens Os tokens têm 3 bytes de comprimento e consistem em um delimitador de início, um byte de controle de acesso e um delimitador de fim. O delimitador de início avisa a chegada de um token ou de um quadro de dados/comandos, a cada estação. Esse campo inclui também sinais que distinguem o byte do resto do quadro, violando o esquema de codificação usado em outro lugar do quadro. Byte de controle de acesso O byte de controle de acesso contém o campo prioridade e reserva e um bit de token e monitor. O bit de token distingue um token de um quadro de dados/comandos e um bit de monitor determina se um quadro está circulando continuamente no anel. O delimitador de fim indica o final do token ou do quadro de dados/comandos. Ele contém bits que indicam um quadro danificado e um quadro que seja o último de uma seqüência lógica. Quadros de dados/comandos
  • Os quadros de dados/comandos variam no tamanho, dependendo do tamanho do campo de informações. Os quadros de dados transportam informações dos protocolos da camada superior; os quadros de comando contêm informações de controle e não têm dados dos protocolos da camada superior. Nos quadros de dados/comandos, um byte de controle de quadro segue o byte de controle de acesso. O byte de controle de quadro indica se o quadro contém dados ou informações de controle. Nos quadros de controle, esse byte especifica o tipo das informações de controle. Seguindo o byte de controle de quadro estão dois campos de endereços que identificam as estações de origem e de destino. Como acontece com a IEEE 802.5, seus endereços têm 6 bytes de comprimento. O campo de dados segue o campo de endereços. O tamanho desse campo é limitado pelo token do anel que limita o tempo, assim definindo o tempo máximo que uma estação pode manter o token. Seguindo o campo de dados está o campo seqüência de verificação de quadros (FCS) . A estação de origem preenche esse campo com um valor calculado que depende do conteúdo do quadro. A estação de destino calcula novamente o valor para determinar se o quadro foi danificado em trânsito. O quadro é descartado se tiver sido danificado. Como acontece com o token, o delimitador de fim conclui o quadro de dados/comando. Passagem de token Token Ring e IEEE 802.5 são os principais exemplos de redes com passagem de token. As redes com passagem de token movem um pequeno quadro, chamado token, pela rede. A posse do token garante o direito de transmitir dados. Se um nó receber um token, mas não tiver informações para enviar, então passará o token à próxima estação final. Cada estação pode manter o token por um período máximo de tempo, dependendo da tecnologia específica que foi implementada.
  • Quando uma estação passa um token que tem informações a transmitir, ela pega o token e altera 1 bit dele. O token torna-se uma seqüência de início do quadro. Depois, a estação anexa ao token as informações a serem transmitidas e envia esses dados para a próxima estação no anel. Não existe nenhum token na rede enquanto o quadro de informações está circulando no anel, a não ser que o anel suporte liberações de token anteriores. Outras estações no anel não podem transmitir nesse momento. Elas devem aguardar que o token se torne disponível. As redes Token Ring não têm colisões. Se a liberação de token anterior for suportada, um novo token pode ser liberado quando a transmissão do quadro estiver concluída. O quadro de informações circula no anel até alcançar a estação de destino pretendida, que, então, copia as informações para o processamento. O quadro de informações circula no anel até alcançar a estação de envio e então é removido. A estação emissora pode verificar se o quadro foi recebido e copiado pelo destino. Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes que qualquer estação final possa transmitir. Esse recurso e muitos recursos de confiança tornam as redes Token Ring ideais para os aplicativos onde qualquer atraso deva ser previsível e a operação de rede robusta seja importante. Ambientes de automação industrial são exemplos de operações de rede robustas previsíveis. Sistema de prioridades As redes Token Ring usam um sofisticado sistema de prioridades que permite que certas estações designadas pelo usuário e de alta prioridade usem a rede com maior freqüência. Os quadros Token Ring têm dois campos que controlam a prioridade - os campos prioridade e reserva . Apenas estações com prioridade igual ou maior que o valor de prioridade contido em um token podem pegar aquele token. Depois do token ter sido pego e transformado em um quadro de informações, apenas as estações com um valor de prioridade maior que o valor da estação transmissora podem reservar o token para o próximo passo da rede. O próximo token gerado inclui a prioridade mais alta da estação de reserva. As estações que aumentam o nível de prioridade de um token devem reaplicar a prioridade anterior quando a transmissão tiver sido concluída. Mecanismos de gerenciamento As redes Token Ring usam vários mecanismos para detectar e compensar as falhas da rede. Um deles é selecionar uma estação na rede Token Ring para ser o monitor ativo. Essa estação age como uma origem centralizada de informações de temporização para outras estações do anel e executa uma variedade de funções de manutenção do anel. A estação monitora ativa pode ser qualquer estação na rede. Uma das funções dessa estação é remover do anel quadros que estão circulando continuamente. Quando um dispositivo emissor falha, seu quadro pode continuar a circular no anel e impedir que outras estações transmitam seus próprios quadros; isso pode bloquear a rede. O monitor ativo pode detectar esses quadros, removê-los do anel e gerar um novo token. A topologia em estrela da rede Token Ring da IBM também contribui para a confiabilidade geral da rede. MSAUs ativas (multi-station access units) podem detectar todas as informações em uma rede Token Ring, permitindo que elas verifiquem os problemas e removam seletivamente estações do anel, sempre que necessário. Advertência de uma situação de erro de rede - uma fórmula Token Ring - detecta e tenta corrigir erros de rede. Quando uma estação detecta um problema sério com a rede (ex. um cabo que se parte), envia um quadro beacon. O quadro beacon define um domínio de falha. Um domínio de falha inclui a estação que está relatando a falha, sua nearest active upstream neighbor (NAUN) e tudo o que está entre elas. A advertência de uma situação de erro na rede inicia um processo chamado auto-reconfiguração, onde os nós no domínio da falha executam o diagnóstico automaticamente. Essa é uma
  • tentativa de reconfigurar a rede ao redor das áreas com falhas. Fisicamente, as MSAUs podem alcançar isso através de reconfiguração elétrica. A codificação de sinal é uma forma de combinar as informações de dados e de relógio em um fluxo de sinais que é enviado por um meio. A codificação Manchester combina os dados e o relógio em símbolos de bits, que são divididos em duas metades, a polaridade da segunda metade sendo sempre oposta a da primeira metade. Lembre-se de que a codificação Manchester resulta no 0 sendo codificado como transição de baixa para alta e 1 sendo codificado como transição de alta para baixa. Em decorrência de 0s e 1s resultarem em transição para o sinal, o relógio pode ser eficazmente recuperado no receptor. As redes Token Ring de 4/16 Mbps usam codificação Manchester diferencial (uma variação na codificação Manchester). A Token Ring usa o método codificação Manchester diferencial para codificar informações de bits de dados e de relógio em símbolos de bit. Um bit 1 é representado por nenhuma alteração na polaridade no início do tempo de bit e um bit 0 é representado por uma alteração na polaridade no início do tempo de bit. As estações de rede Token Ring da IBM (freqüentemente usando STP e UTP como meios) estão diretamente conectadas às MSAUs e podem ser ligadas para formar um grande anel. Os patch cables conectam MSAUs a outras MSAUs que são adjacentes a elas. Cabos lobe conectam MSAUs às estações. As MSAUs incluem comutações de bypass para remover as estações do anel. Visão geral de FDDI e suas variantes Na metade dos anos 80, as estações de trabalho de engenharia de alta velocidade impulsionaram as capacidades da Ethernet e da Token Ring existentes aos seus limites. Os engenheiros precisavam de uma LAN que pudesse suportar as suas estações de trabalho e seus novos aplicativos. Ao mesmo tempo, os gerenciadores de sistema ficaram preocupados com os problemas de confiabilidade da rede à medida que os aplicativos críticos para a missão eram implementados nas redes de alta velocidade. O comitê de padrões ANSI X3T9.5, para resolver essas questões, produziu o padrão Fiber Distributed Data Interface (FDDI). Depois de concluir as especificações, o ANSI submeteu a FDDI à International Organization for Standardization (ISO), que criou uma versão internacional da FDDI que é totalmente compatível com a versão padrão ANSI.
  • Embora as implementações da FDDI não sejam tão comuns, hoje, quanto a Ethernet ou a Token Ring, a FDDI tem um grande número de adeptos e continua a crescer à medida que os seus custos diminuem. A FDDI é freqüentemente usada como tecnologia de backbone e para conectar computadores de alta velocidade a uma LAN. A FDDI tem quatro especificações: 1. Media Access Control (MAC) - define como o meio é acessado, incluindo: • Formato de quadro • Tratamento de token • Endereçamento • Algoritmo para calcular uma verificação de redundância cíclica e mecanismos de recuperação de erros 2. Physical Layer Protocol (PHY) - define procedimentos de codificação/decodificação de dados, incluindo: • Requisitos de clocking • Enquadramento • Outras funções 3. Physical Layer Medium (PMD) - define as características do meio de transmissão, incluindo: • Link de fibra óptica • Níveis de energia • Taxas de erro de bit • Componentes ópticos • Conectores 4. Station Management (SMT) - define a configuração de estação FDDI, incluindo: • Configuração do anel • Recursos de controle de anel • Remoção e inserção de estação • Inicialização • Recuperação e isolamento de falha • Agendamento • Coleção de estatísticas
  • Os campos de um quadro FDDI são os seguintes: • Preâmbulo - prepara cada estação para o próximo quadro • Delimitador de início - indica o início do quadro e consiste nos padrões de sinalização que o diferenciam do resto do quadro • Controle de quadro - indica o tamanho dos campos de endereço, independentemente do quadro conter dados síncronos ou assíncronos e outras informações de controle • Endereço de destino - contém um endereço unicast (singular), multicast (grupo) ou broadcast (cada estação), os endereços de destino são de 6 bytes (como Ethernet e Token Ring) • Endereço de origem - identifica a única estação que enviou o quadro, os endereços de origem são de 6 bytes (como Ethernet e Token Ring) • Dados - controla a informação ou as informações destinadas a um protocolo da camada superior • Frame check sequence (FCS) - preenchida pela estação de origem com um cyclic redundancy check (CRC) calculado, valor dependente do conteúdo do quadro (como Token Ring e Ethernet). A estação de destino calcula novamente o valor para determinar se o quadro pode ter sido danificado em trânsito. Se tiver sido, o quadro é descartado. • Delimitador de fim - contém símbolos que não são dados e que indicam o final do quadro • Status do quadro - permite à estação de origem determinar se ocorreu um erro e se o quadro foi reconhecido e copiado por uma estação receptora
  • A FDDI usa uma estratégia de passagem de token parecida com a da Token Ring. As redes com passagem de token movem um pequeno quadro, chamado token, pela rede. A posse do token garante o direito de transmitir dados. Se um nó que está recebendo o token não tiver informações para enviar, passará o token à próxima estação final. Cada estação pode manter o token por um período máximo de tempo, dependendo da implementação da tecnologia específica. Quando uma estação que está com a posse do token tiver informações a transmitir, ela vai redimensionar o token e alterar um dos seus bits. O token torna-se uma seqüência de início do quadro. Depois, a estação anexa as informações que transmite ao token e envia esses dados à próxima estação no anel. Não há nenhum token na rede enquanto o quadro de informações estiver circulando no anel, a não ser que o anel suporte a liberação do token anterior. Outras estações no anel devem aguardar que o token se torne disponível. As redes FDDI não têm colisões. Se a liberação de token anterior for suportada, um novo token pode ser liberado quando a transmissão do quadro estiver concluída. O quadro de informações circula no anel até alcançar a estação de destino pretendida, que copia as informações para o processamento. O quadro de informações circula no anel até alcançar a estação de envio e então é removido. A estação emissora pode verificar o quadro de retorno para ver se foi recebido e, em seguida, copiado pelo destino. Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes que qualquer estação final possa transmitir. O anel duplo da FDDI garante não apenas que as estações se revezem para transmitir, mas que se uma parte de um anel for danificada ou desativada por qualquer razão, o segundo anel possa ser usado. Isso torna a FDDI muito confiável.
  • A FDDI suporta a alocação em tempo real da largura de banda da rede, o que a torna ideal para uma variedade de tipos de aplicativos diferentes. A FDDI fornece esse suporte definindo dois tipos de tráfego - síncrono e assíncrono. Síncrono • O tráfego síncrono pode consumir uma parte da largura de banda total de 100 Mbps de uma rede FDDI, enquanto o tráfego assíncrono pode consumir o restante. • A largura de banda síncrona é alocada às estações que exigem capacidade de transmissão contínua. Isso é útil para a transmissão de informações por voz e vídeo. A largura de banda restante é usada para as transmissões assíncronas. • A especificação SMT FDDI define um esquema de disputa distribuído para alocar a largura de banda da FDDI. Assíncrono • A largura de banda assíncrona é alocada usando um esquema de prioridade de oito níveis. A cada estação é atribuído um nível de prioridade assíncrono. • A FDDI também permite diálogos estendidos, onde as estações podem usar todas as larguras de banda assíncronas temporariamente. • O mecanismo de prioridade da FDDI pode bloquear as estações que não possam usar largura de banda síncrona e que tenham uma prioridade assíncrona baixa demais. A FDDI usa um esquema de codificação chamado 4B/5B. Cada 4 bits de dados são enviados como um código de 5 bits. As origens do sinal nos transceivers FDDI são LEDs ou lasers.
  • A FDDI especifica uma LAN de dois anéis de 100 Mbps, que permite a passagem de tokens e usa um meio de transmissão de fibra óptica. Ela define a camada física e a parte de acesso aos meios da camada de enlace, que é similar à IEEE 802.3 e à IEEE 802.5 em sua relação com o modelo OSI. Embora opere em velocidades mais altas, a FDDI é similar à Token Ring. As duas redes compartilham alguns recursos, como topologia (anel) e a técnica de acesso a meios (passagem de token). Uma característica da FDDI é o seu uso de fibra óptica como meio de transmissão. A fibra óptica oferece várias vantagens sobre o cabeamento de cobre tradicional, incluindo vantagens como: • segurança - A fibra não emite sinais elétricos que possam ser captados. • confiança - A fibra é imune à interferência elétrica. • rapidez - A fibra óptica tem um potencial de troughput muito maior que o cabo de cobre. A FDDI define os dois tipos de fibra especificados: modo único (também monomodo) e multimodo. Os modos podem ser imaginados como feixes de raios de luz entrando na fibra em determinado ângulo. A fibra monomodo permite apenas um modo de propagação da luz através da fibra, enquanto a fibra multimodo permite vários modos de propagação da luz através da fibra. Modos múltiplos de propagação de luz através de fibra podem trafegar em distâncias diferentes, dependendo dos ângulos de entrada. Isso faz com que cheguem ao destino em horas diferentes, um fenômeno chamado dispersão modal. A fibra de modo único tem capacidade de largura de banda mais alta e maiores distâncias de lance de cabo do que a fibra multimodo. Por causa dessas características, a fibra de modo único é freqüentemente usada para conectividade entre prédios, ao passo que a fibra multimodo é usada para conectividade dentro do prédio. A fibra multimodo usa LEDs como dispositivos geradores de luz, enquanto a fibra monomodo normalmente usa lasers. A FDDI especifica o uso de dois anéis para as conexões físicas. O tráfego em cada anel viaja em direções opostas. Fisicamente, os anéis consistem em duas ou mais conexões ponto a ponto entre estações adjacentes. Um dos dois anéis da FDDI é chamado de anel principal; o outro é chamado de anel secundário. O anel principal é usado para transmissão de dados, enquanto o anel secundário é normalmente usado como sobressalente. Estações da classe B ou single-attachment stations (SAS), conectam-se a um anel; as estações da classe A ou dual attachment stations (DAS), conectam-se a dois anéis. As SASs se conectam ao anel principal através de um concentrador, que fornece conexões para várias SASs. O concentrador garante que uma falha, ou queda de energia, de qualquer SAS fornecida, não interrompa o anel. Isso é particularmente útil quando PCs, ou dispositivos similares que são ligados e desligados freqüentemente, conectam-se ao anel.
  • Comparando Ethernet e IEEE 802.3 A Ethernet é a tecnologia de rede local (LAN) mais amplamente usada. A Ethernet foi projetada para ocupar o espaço entre as redes de longa distância, com baixa velocidade e as redes especializadas de sala de computação que transportam dados em alta velocidade por distâncias muito limitadas. A Ethernet é bem adequada a aplicativos em que um meio de comunicação local deva transportar tráfego esporádico, ocasionalmente intenso, a altas taxas de dados. A arquitetura de rede Ethernet tem suas origens nos anos 60, na Universidade do Havaí, onde o método de acesso que é usado pela Ethernet, carrier sense multiple access/collision
  • detection (CSMA/CD), foi desenvolvido. O Palo Alto Research Center (PARC) , da Xerox Corporation, desenvolveu o primeiro sistema Ethernet experimental no início dos anos 70. Isso foi usado como base para a especificação 802.3 do Institute of Electrical and Electronic Engineers (IEEE), lançada em 1980. Logo após a especificação 802.3 de 1980 da IEEE, a Digital Equipment Corporation, a Intel Corporation e a Xerox Corporation desenvolveram conjuntamente e lançaram uma especificação Ethernet, versão 2.0, que foi substancialmente compatível com a IEEE 802.3. Juntas, a Ethernet e a IEEE 802.3 detêm atualmente a maior fatia de mercado de todos os protocolos LAN. Hoje, o termo Ethernet é freqüentemente usado para se referir a todas as LANs baseadas em CSMA/CD (Carrier sense multiple access/collision detect) que normalmente estão em conformidade com as especificações Ethernet, incluindo a especificação IEEE 802.3. A Ethernet e a IEEE 802.3 especificam tecnologias similares: ambas são LANs baseadas em CSMA/CD. Estações em uma LAN CSMA/CD podem acessar a rede a qualquer momento. Antes de enviar dados, as estações CSMA/CD escutam a rede para determinar se ela já está em uso. Se estiver, então elas aguardam. Se a rede não estiver em uso, as estações transmitem. Uma colisão ocorre quando duas estações escutam o tráfego da rede, não ouvem nada e transmitem simultaneamente. Neste caso, ambas as transmissões são prejudicadas e as estações devem retransmitir mais tarde. Algoritmos de recuo determinam quando as estações que colidiram podem retransmitir. As estações CSMA/CD podem detectar colisões, assim, elas sabem quando devem retransmitir. Ambas as LANs Ethernet e IEEE 802.3 são redes de broadcast. Isso significa que todas as estações podem ver todos os quadros, independentemente de serem ou não o destino daqueles dados. Cada estação deve examinar os quadros recebidos para determinar se ela é o destino. Se for, o quadro é passado a um protocolo de camada mais alto dentro da estação para processamento apropriado. As diferenças entre as LANs Ethernet e IEEE 802.3 são sutis. A Ethernet fornece serviços correspondentes às camadas 1 e 2 do modelo de referência OSI, enquanto a IEEE 802.3 especifica a camada física, a camada 1 e a parte de acesso a canais da camada de enlace, a camada 2, mas não define um protocolo de controle de enlace lógico. Ambas as LANs Ethernet e IEEE 802.3 são implementadas através de hardware. Normalmente, a parte física desses protocolos é uma placa de interface em um computador host ou um conjunto de circuitos em um placa de circuitos principal no computador host.
  • Formato de quadro da Ethernet Os campos de quadros Ethernet e IEEE 802.3 estão descritos nos resumos a seguir: • Preâmbulo - O padrão alternado de 1s e 0s informa às estações receptoras se um quadro é Ethernet ou IEEE 802.3. O quadro Ethernet inclui um byte adicional, que é o equivalente ao campo Start of Frame (SOF) especificado no quadro IEEE 802.3. • Início do quadro (SOF, start-of-frame) - O byte delimitador IEEE 802.3 termina com dois bits 1 consecutivos, o que serve para sincronizar as partes de recepção de quadro de todas as estações na LAN. O SOF é explicitamente especificado na Ethernet. • Endereços de origem e de destino - Os 3 primeiros bytes dos endereços são especificados pelo IEEE, dependendo do fabricante. Os 3 últimos bytes são especificados pelo fabricante da Ethernet ou IEEE 802.3. O endereço de origem é sempre um endereço unicast (nó único). O endereço de destino pode ser unicast, multicast (grupo), ou broadcast (todos os nós). • Tipo (Ethernet) - O tipo especifica o protocolo da camada superior para receber os dados depois que o processamento da Ethernet estiver concluído. • Tamanho (IEEE 802.3) - O tamanho indica o número de bytes de dados que vêm depois desse campo. • Dados (Ethernet) - Depois que o processamento da camada física e da camada de enlace estiver concluído, os dados contidos no quadro serão enviados a um protocolo da camada superior, que é identificado no campo de tipos. Embora a Ethernet versão 2 não especifique qualquer enchimento, ao contrário da IEEE 802.3, a Ethernet espera receber, pelo menos, 46 bytes de dados. • Dados (IEEE 802.3) - Depois que o processamento das camadas física e de enlace estiver concluído, os dados serão enviados a um protocolo da camada superior, que deve estar definido na parte de dados do quadro. Se os dados no quadro forem insuficientes para preencher o quadro no seu tamanho mínimo de 64 bytes, bytes de enchimento serão inseridos para garantir um quadro de, pelo menos, 64 bytes. • Frame check sequence (FCS) - Essa seqüência contém um verificador de redundância cíclica de 4 bytes (CRC), criado pelo dispositivo emissor e recalculado pelo dispositivo de recepção para verificar se há quadros danificados.
  • A Ethernet é uma tecnologia de broadcast de meios compartilhados. O método de acesso CSMA/CD usado na Ethernet executa três funções: 1. Transmitir e receber pacotes de dados 2. Decodificar pacotes de dados e verificar se os endereços são válidos, antes de passá- los às camadas superiores do modelo OSI 3. Detectar erros dentro dos pacotes de dados ou na rede No método de acesso CSMA/CD, os dispositivos de rede com dados para transmissão pelos meios da rede funcionam em um modo "escutar antes de transmitir". Isso significa que, quando um dispositivo desejar enviar dados, ele deverá, primeiramente, verificar se os meios da rede estão ocupados. O dispositivo deverá verificar se existem sinais nos meios da rede. O dispositivo começará a transmitir os dados depois de determinar se os meios de rede não estão ocupados. Enquanto estiver transmitindo os dados na forma de sinais, o dispositivo também estará escutando. Ele faz isso para garantir que nenhuma outra estação esteja transmitindo dados para os meios de rede ao mesmo tempo. Quando terminar de transmitir os dados, o dispositivo retornará ao modo de escuta. Os dispositivos de rede poderão informar quando uma colisão ocorrer porque a amplitude do sinal nos meios da rede aumentará. Quando uma colisão ocorrer, cada dispositivo que estiver transmitindo continuará a transmitir os dados por um pequeno espaço de tempo. Isso acontece para garantir que todos os dispositivos vejam a colisão. Quando todos os dispositivos na rede tiverem visto que uma colisão aconteceu, cada um chamará um algoritmo. Depois que todos os dispositivos na rede tiverem recuado por um certo período de tempo (diferente para cada dispositivo), qualquer dispositivo poderá tentar acessar os meios da rede novamente. Quando a transmissão de dados for retomada na rede, os dispositivos envolvidos na colisão não terão prioridade para transmitir dados. A Ethernet é um meio de transmissão de broadcast. Isso significa que todos os dispositivos de uma rede podem ver todos os dados que passam pelos meios da rede. Entretanto, nem todos
  • os dispositivos da rede processarão os dados. Apenas os dispositivos cujos endereços MAC e IP coincidam com os endereços MAC e IP de destino, carregados pelos dados, copiarão os dados. Depois que um dispositivo tiver verificado os endereços MAC e IP de destino carregados pelos dados, ele verificará se o pacote de dados tem erros. Se o dispositivo detectar erros, o pacote de dados será descartado. O dispositivo de destino não notifica o dispositivo de origem, quer tenha o pacote chegado ou não com êxito. A Ethernet é uma arquitetura de rede sem conexões, sendo conhecida como um sistema de entrega dos melhores esforços. Os prós e contras da segmentação de LAN com switches O switching LAN ameniza a escassez de largura de banda e os gargalos de rede, como os que ocorrem entre um grupo de PCs e um servidor de arquivos remoto. Um switch pode segmentar uma LAN em microssegmentos, que são segmentos únicos de host. Isso cria domínios sem colisão a partir de um domínio de colisão maior. Mesmo que o switch LAN elimine os domínios de colisão, todos os hosts conectados ao switch ainda estarão no mesmo domínio de broadcast. Logo, todos os nós conectados através do switch LAN podem ver um broadcast a partir de apenas um nó. A Ethernet com comutação é baseada na Ethernet. Cada nó está diretamente conectado a uma de suas portas ou a um segmento que está conectado a uma das portas do switch. Isso cria uma conexão de largura de banda de 100 Mbps entre cada nó e cada segmento no switch. Um computador conectado diretamente a um switch Ethernet é o seu próprio domínio de colisão e acessa todos os 100 Mbps. Uma LAN que usa um topologia Ethernet com comutação cria uma rede que funciona como se tivesse apenas dois nós, o nó emissor e o nó receptor. Esses dois nós compartilham uma largura de banda de 100 Mbps, significando que quase toda a largura de banda está disponível para a transmissão dos dados. Como a LAN Ethernet com comutação usa a largura de banda de forma tão eficiente, ela pode fornecer uma topologia de LAN mais rápida que as LANs Ethernet. Em uma implementação da Ethernet com comutação, a largura de banda disponível pode chegar perto de 100%. O switching Ethernet aumenta a largura de banda disponível em uma rede criando segmentos de rede dedicados (ou conexões ponto a ponto) e conectando esses segmentos a uma rede virtual no switch. Esse circuito de rede virtual existirá apenas quando dois nós precisarem se comunicar. Isso é chamado circuito virtual, porque existe apenas quando for necessário e estará estabelecido no switch. Switching é uma tecnologia que diminui o congestionamento, nas LANs Ethernet, Token Ring e FDDI, reduzindo o tráfego e aumentando a largura de banda. Switches LAN são freqüentemente usados para substituir hubs compartilhados. Eles são projetados para trabalhar com infra-estruturas de cabos que já existam para que possam ser instalados sem afetar o tráfego existente na rede. Hoje, nas comunicações de dados, todos os equipamentos de switching executam duas operações básicas: • Switching de quadro de dados - isso acontece quando um quadro chegar a um meio de entrada e for transmitido para um meio de saída. • Manutenção das operações de switching - um switch cria e mantém tabelas de switching. O termo bridging se refere a uma tecnologia na qual um dispositivo conhecido como uma bridge conecta dois ou mais segmentos de LAN. Uma bridge transmite datagramas de um segmento aos destinos em outros segmentos. Quando uma bridge for ativada e começar a operar, ela examinará o endereço MAC dos datagramas de chegada e criará uma tabela dos destinos conhecidos. Se a bridge souber que o destino de um datagrama está no mesmo
  • segmento da origem do datagrama, ela irá abandonar o datagrama porque não haverá necessidade de transmiti-lo. Se a bridge souber que o destino está em outro segmento, ela transmitirá o datagrama apenas naquele segmento. Se ela não souber o segmento de destino, transmitirá o datagrama em todos os segmentos exceto no segmento de origem (uma técnica conhecida como sobrecarga). A principal vantagem do bridging é limitar o tráfego para determinados segmentos da rede. Como as bridges, os switches conectam os segmentos LAN, usam uma tabela de endereços MAC para determinar o segmento para onde um datagrama precisa ser transmitido e reduzem o tráfego. Os switches são mais funcionais que as bridges nas redes atuais porque operam em velocidades muito mais altas que as bridges e podem suportar novas funcionalidades, como as LANs virtuais (VLANs). As bridges normalmente fazem switch usando o software; os switches normalmente fazem switch usando o hardware. Cada switch usado em uma LAN Ethernet de 10 Mbps adiciona latência à rede. No entanto, o tipo de switching usado pode ajudar a superar o problema de latência inerente a alguns switches. Um switch entre uma estação de trabalho e um servidor adiciona 21 microssegundos ao processo de transmissão. Um pacote de 1000 bytes tem um tempo de transmissão de 800 microssegundos. Um pacote enviado de uma estação de trabalho para um servidor tem um tempo total de transmissão de 821 microssegundos (800 + 21 = 821). Devido ao switching usado, conhecido como cut-through, o endereço MAC do dispositivo de destino é lido e o switch começa a transmitir o pacote antes dele ser completamente recebido pelo switch. Isso compensa a latência inerente ao switch. Switching da camada 2 e switching da camada 3 Existem dois métodos de fazer o switching de quadros de dados: switching da camada 2 e switching da camada 3. Switching é o processo de receber um quadro através de uma interface e distribuí-lo através de outra interface. Os roteadores usam o switching da camada 3 para rotear um pacote; os switches (switches da camada 2) usam o switching da camada 2 para encaminhar quadros. A diferença entre o switching da camada 2 e o switching da camada 3 é o tipo de informação contida no quadro usada para determinar a interface de saída correta. Com o switching da camada 2, os quadros são comutados com base nas informações de endereço MAC. Com o switching da camada 3, os quadros são comutados com base nas informações da camada de rede. O switching da camada 2 não procura as informações da camada de rede dentro de um pacote como faz o switching da camada 3. O switching da camada 2 procura o endereço MAC de destino dentro de um quadro. Ele enviará as informações para a interface apropriada se souber a localização do endereço de destino. O switching da camada 2 cria e mantém uma tabela de switching que mantém o registro dos endereços MAC que pertencem a todas as portas ou interfaces. Se o switch da camada 2 não souber para onde enviar o quadro, ele irá fazer o broadcast do quadro através de todas as suas portas para que a rede aprenda o destino correto. Quando a resposta do quadro for devolvida, o switch aprenderá a localização do novo endereço e adicionará as informações à tabela do switching. O fabricante do equipamento de comunicações de dados determina os endereços da camada 2. Eles são endereços exclusivos que são divididos em duas partes, o código de fabricação (MFG) e o identificador exclusivo. O Institute of Electrical and Electronic Engineers (IEEE) atribui o código MFG a cada fornecedor. O fornecedor atribui um identificador exclusivo. Exceto nas redes Systems Network Architecture (SNA), os usuários têm pouco ou nenhum controle sobre o endereçamento da camada 2 porque os endereços da camada 2 são fixos em um dispositivo, enquanto os endereços da camada 3 podem ser alterados. Além disso, os endereços da camada 2 assumem um espaço de endereço contínuo com endereços universalmente exclusivos. O switching da camada 3
  • opera na camada de rede. Ele examina as informações do pacote e encaminha os pacotes com base nos endereços de destino da camada de rede. O switching da camada 3 também suporta a funcionalidade do roteador. Na maioria dos casos, o administrador da rede determina os endereços da camada 3. Protocolos como IP, IPX e AppleTalk usam o endereçamento da camada 3. Ao criar endereços da camada 3, um administrador de rede cria áreas locais que atuam como unidades de endereçamento únicas (similar a ruas, cidades, estados e países) e atribui um número a cada entidade local. Se os usuários se mudarem para outro prédio, suas estações terminais vão obter novos endereços da camada 3, mas os endereços da camada 2 permanecerão os mesmos. Como os roteadores operam na camada 3 do modelo de referência OSI, eles podem criar e obedecer uma estrutura de endereçamento hierárquica. Portanto, uma rede roteada pode unir uma estrutura de endereçamento lógica a uma estrutura física, por exemplo, através das sub- redes TCP/IP ou das redes IPX em cada segmento. O fluxo do tráfego em uma rede com comutação (simples) é, portanto, inerentemente diferente do fluxo do tráfego em uma rede roteada (hierárquica). As redes hierárquicas oferecem fluxo de tráfego mais flexível do que as redes simples, pois elas podem usar a hierarquia da rede para determinar melhores caminhos e contêm domínios de broadcast. Os switches têm muitas vantagens. Um switch LAN permite que vários usuários se comuniquem paralelamente através do uso de circuitos virtuais e de segmentos de rede dedicados em um ambiente livre de colisões. Isso maximiza a largura de banda disponível em um meio compartilhado. Além disso, mudar para um ambiente de LAN com comutação é muito econômico porque o cabeamento e o hardware existentes podem ser usados novamente. Por último, os administradores da rede têm grande flexibilidade em gerenciar a rede através da eficácia do switch e do software para configurar a LAN. Switching simétrico e switching assimétrico O switching simétrico é uma forma de se caracterizar um switch LAN de acordo com a largura de banda alocada em cada porta no switch. Um switch simétrico fornece conexões com comutações entre portas com a mesma largura de banda, como todas as portas de 10 Mbps ou todas as portas de 100 Mbps. Um switch LAN assimétrico fornece conexões com comutação entre portas de largura de banda diferente, como uma combinação das portas de 10 Mbps e de 100 Mbps. O switching assimétrico faz com que a maior parte do tráfego de rede cliente/servidor flua onde vários clientes estejam se comunicando com um servidor ao mesmo tempo, exigindo mais largura de banda dedicada para a porta do switch a qual o servidor está conectado para impedir um gargalo naquela porta. Como você aprenderá na próxima seção, o buffer de memória em um switch assimétrico é necessário para permitir que o tráfego da porta de 100 Mbps seja enviado à porta de 10 Mbps sem causar muito congestionamento na porta de 10 Mbps.
  • Buffer de memória Um switch Ethernet pode usar uma técnica de buffer para armazenar e encaminhar pacotes para a(s) porta(s) correta(s). A área de memória onde o switch armazena os dados de transmissão e de destino é chamada de buffer de memória. Esse buffer de memória pode usar dois métodos para encaminhar pacotes: o buffer de memória baseado na porta e o buffer de memória compartilhado. Em um buffer de memória baseado na porta, os pacotes são armazenados em filas vinculadas às portas de chegada específicas. Um pacote só é transmitido para a porta de saída quando todos os pacotes à frente dele na fila tiverem sido transmitidos com êxito. É possível que um único pacote atrase a transmissão de todos os pacotes na memória devido a uma porta de
  • destino que esteja sendo usada. Esse atraso ocorrerá mesmo se os outros pacotes puderem ser transmitidos para abrir as portas de destino. O buffer de memória compartilhado deposita todos os pacotes em um buffer de memória comum que é compartilhado por todas as portas no switch. A quantidade de memória alocada em uma porta é determinada pela quantidade exigida por cada porta. Isso é chamado de alocação dinâmica de memória de buffer. Os pacotes no buffer são dinamicamente vinculados à porta de transmissão, o pacote é vinculado à alocação da memória dessa porta de transmissão. Isso permite que o pacote seja recebido por uma porta e transmitido através de outra, sem movê-lo para uma fila diferente. O switch mantém um mapa das portas para onde o pacote precisa ser transmitido. O switch só limpará esse mapa das portas de destino depois que o pacote tiver sido transmitido com êxito. Como o buffer de memória é compartilhado, o pacote estará restrito ao tamanho de todo o buffer de memória e não apenas à alocação a uma porta. Isso significa que pacotes maiores podem ser transmitidos com menos pacotes descartados. Isso é importante para o switching 10/100, onde uma porta de 100 Mbps pode encaminhar um pacote a uma porta de 10 Mbps. Dois modos de switching podem ser usados para encaminhar um quadro através de um switch: • Armazenar e encaminhar - Todo o quadro é recebido antes de ocorrer qualquer encaminhamento. O endereço de destino e/ou o endereço de origem é lido e os filtros serão aplicados antes do quadro ser encaminhado. A latência ocorrerá enquanto o quadro estiver sendo recebido; a latência será maior nos quadros maiores pois todo o quadro levará mais tempo para ser lido. A detecção de erros será maior devido ao tempo disponível para o switch verificar os erros enquanto estiver esperando que todo o quadro seja recebido. • Cut-through - O switch lê o endereço de destino antes de receber todo o quadro. O quadro é encaminhado antes que todo o quadro chegue. Esse modo diminui a latência da transmissão e tem uma detecção de erros de switching LAN ruim. Fast-forward e fragment-free são duas formas do switching cut-through: o Switching fast-forward - O switching fast-forward oferece o nível mais baixo de latência encaminhando imediatamente um pacote após ter recebido o endereço de destino. Como o switching fast-forward começa a encaminhar antes que todo o pacote seja recebido, pode haver vezes em que os pacotes sejam retransmitidos com erros. Embora isso não ocorra com freqüência e a placa de rede de destino descarte o pacote com defeito ao recebê-lo, o tráfego supérfluo pode ser considerado inaceitável em alguns ambientes. Use a opção fragment-free para reduzir o número de pacotes encaminhados com erros. No modo fast-forward, a latência é medida a partir do primeiro bit recebido até o primeiro bit transmitido, ou primeiro a entrar, primeiro a sair (FIFO, first in, first out). o Switching fragment-free - O switching fragment-free filtra os fragmentos da colisão, que são a maioria dos erros do pacote, antes do encaminhamento começar. Em uma rede funcionando apropriadamente, os fragmentos de colisão devem ser menores que 64 bytes. Qualquer coisa maior que 64 bytes é um pacote válido e é normalmente recebido sem erro. O switching fragment- free aguarda até que o pacote recebido seja reconhecido como não sendo um fragmento de colisão antes de encaminhá-lo. No modo fragment-free, a latência é medida como FIFO.
  • A latência de cada modo de switching depende de como o switch encaminha os quadros. Quanto mais rápido for o modo de switching, menor será latência no switch. Para realizar um encaminhamento de quadro mais rápido, o switch leva menos tempo para verificar os erros. A compensação será menos verificação de erros, o que poderá levar a um número maior de retransmissões. O que é VLAN Um switch Ethernet segmenta fisicamente uma LAN em domínios de colisão individuais. No entanto, cada segmento ainda faz parte de um domínio de broadcast. O número total de segmentos em um switch é igual a um domínio de broadcast. Isso significa que todos os nós em todos os segmentos podem ver um broadcast a partir de um nó em um segmento. A principal função do Spanning-Tree Protocol é permitir os caminhos com bridges/switches duplicados sem os efeitos de latência dos loops na rede. As bridges e os switches tomam as decisões de encaminhamento para os quadros unicast com base no endereço MAC no quadro. Se o endereço MAC for desconhecido, o dispositivo transmitirá o quadro através de todas as portas na tentativa de alcançar o destino desejado. Ele também faz isso em todos os quadros de broadcast. O algoritmo Spanning Tree, implementado pelo Spanning-Tree Protocol, impede os loops calculando uma topologia de rede spanning-tree estável. Ao criar redes tolerantes a falhas, um caminho sem loops deverá existir entre todos os nós Ethernet na rede. O algoritmo Spanning Tree é usado para calcular um caminho sem loops. Quadros Spanning Tree, chamados de bridge protocol data units (BPDUs), são enviados e recebidos por todos os switches na rede em intervalos regulares e são usados para determinar a topologia spanning-tree. Um switch usa o Spanning-Tree Protocol em todas as Ethernets e Fast Ethernets baseadas em VLANs. O Spanning-Tree Protocol detecta e interrompe os loops colocando algumas conexões no modo de espera, que serão ativadas caso haja uma falha na conexão ativa. Uma instância separada do Spanning-Tree Protocol é executada em cada VLAN configurada, garantindo as topologias Ethernet que estão de acordo com os padrões da indústria através da rede. Os estados do Spanning-Tree Protocol são os seguintes: • Bloqueando - Nenhum quadro encaminhado, BPDUs detectadas • Prestando atenção - Nenhum quadro encaminhado, prestando atenção nos quadros • Aprendendo - Nenhum quadro encaminhado, aprendendo os endereços • Encaminhando - Quadros encaminhados, aprendendo os endereços • Desativado - Nenhum quadro encaminhado, nenhuma BPDU detectada O estado de cada VLAN é inicialmente definido pela configuração e modificado depois pelo processo Spanning-Tree Protocol. Você pode determinar o status, o custo e a prioridade das portas e das VLANs usando o comando show spantree . Depois que esse estado de porta para VLAN for definido, o Spanning-Tree Protocol determinará se a porta irá encaminhar ou bloquear os quadros. As portas poderão ser configuradas para entrar imediatamente no modo de encaminhamento Spanning-Tree Protocol quando for feita uma conexão, em vez de seguir a seqüência usual de bloquear, aprender e encaminhar. A capacidade de comutar rapidamente os estados de bloquear para encaminhar em vez de passar pelos estados da porta transacionais será útil em situações onde o acesso imediato a um servidor for necessário.