Virtual Chassis Fabric
for Cloud Builders
2015/08
2016/10更新
Juniper Networks, K.K.
Agenda
ジュニパーのイーサネット・ファブリック
Virtual Chassis Fabricとは
Virtual Chassis Fabricの推奨構成とTech Tips
ジュニパーのイーサネット・ファブリック
データセンターが抱える今の課題
 サーバーNICの1GE から 10GE への移行
 低いアプリケーションパフォーマンス
 規模、サービス、アプリケーションを追加する際の迅速な対応
 複数のネットワークを管理
 大量のネットワーク機器を個別に管理
 リンクと帯域の無駄遣い
1
2
レガシーなネットワークパフォーマンス/アーキテクチャからの脱却
レガシーなネットワーク管理手法からの脱却
技術革新によるデータセンター内トラフィックの変化と
新たなネットワークの課題
アプリケーション
の進化
Web
2.0
SOA
SAAS
かつてのクライアント-サーバー
アーキテクチャ
クラウド時代のサービス指向
アーキテクチャ(SOA)
Server
Server
Server
Server
Server
Server
95%
25%
Client
A
D
CB
DB
A
D
C
B
DB
75%
近年のデータセンターネットワークは、トラフィック量が増大しただけでなく
増大したトラフィックがデータセンター内のネットワークで分散処理される傾向へと変化
サービスの需要増大に対する従来型の対応方法= “ボックスの追加”
レイヤー3
コアスイッチ
レイヤー2
アグリゲーション・スイッチ
レイヤー1
トップ・オブ・ラック・アクセス・スイッチ
複雑さ コスト 遅延 リスク
これまでのデータセンターLANの構成方法
レガシーデータセンターにおけるネットワークの問題点
低いパフォーマンス
・階層化ネットワークは東西方向のトラフィックが増大する
仮想化サーバー環境やSOAアプリケーションに悪影響
・STPやVRRPは有効な帯域を半減させる
困難なスケールアウト
・物理サーバの数が増えると、さらなる階層を必要とし、
ネットワークが複雑化する
複雑な管理
・すべてのネットワーク機器を個別に管理する必要があるため、
装置の数が増えると飛躍的に管理コストが上昇
レガシーネットワークは非効率, 複雑, そして煩雑な管理を要し、スケールアウトには不向き
Ñ Ñ
Ñ
Access
Aggregation
Core
サーバー間通信西 東
ジュニパーのイーサネット・ファブリックによるソリューション
物理的・論理的に
シンプルに
運用を
シンプルに
すべてをシンプルにすることでネットワークのパフォーマンスを経済的に向上し、
データセンターにおける新しい課題に迅速に対応する
Virtual Chassis Fabric
(up to 20 linecards)
Spine 1 Spine 2 Spine 3 Spine 4
Optimized for 1/10/40GbE environments
EX4300, QFX3500, QFX3600
and QFX5100 members
EX4300, QFX3500, QFX3600
or QFX5100 members
Virtual Chassis
(up to 10 linecards)
Optimized for 1/10GbE environments
QFabric
(up to 128 linecards)
QFX3500, QFX3600 or QFX5100 Nodes
Optimized for 10/40GbE environments
ジュニパーは規模の違う3種類のイーサネットファブリックを提供
Juniper Fabric ARCHITECURES
Managed as a Single L2/L3 Switch
※本資料では主にVirtual Chassis Fabric
について詳細な解説を提供します。
Virtual Chassis Fabricとは
ジュニパーのイーサネット・ファブリック
物理的・論理的に
シンプルに
運用を
シンプルに
ネットワーク管理者
複雑な構成やプロトコルの管理はしたくない
大量のネットワーク機器の管理をしたくない
データセンターネットワークの課題:
課題の多くは、実はシャーシ型スイッチで解決が可能 ネットワークをすべてシャーシ型スイッチで管理運用すると
実は多くの悩みを解消できる
拡張性 → ラインカードの増設で対応可能
信頼性 → 内部冗長化されたハードウェア
信頼性 → 豊富なHA機能とISSUのサポート
パフォーマンス → 分散L2/3フォワーディング
物理配置の柔軟性 → 高いRUと固定型配備
運用コスト → 高い消費電力と熱量
導入コスト → 高い製品コスト
管理容易性 → 1箇所からシステムの広範囲を管理
ただし問題も…
導入コスト → 高いケーブリングコスト
レガシーな
シャーシ型スイッチ
ジュニパーのイーサネット・ファブリック
ジュニパーの解決策:
ソフトウェアの力で仮想的にシャーシ型スイッチをエミュレート
レガシーな
シャーシ型スイッチ
ネットワーク管理者
仮想シャーシ型スイッチ
(イーサネット・ファブリック)
Devices to Manage
= 1 !!!
L2/L3 Local Switching !!!
L2/L3 Protocol HA
& NSSU !!!
シャーシ型スイッチをソフトウェアでエミュレートすることで
ボックス型スイッチにシャーシ型スイッチと同等のメリットを付与し、
さらに物理的な制約を受けない仮想シャーシならではのメリットを提供
ジュニパーのイーサネット・ファブリック
規模に応じた3種類の仮想シャーシ=イーサネットファブリック:
… 最大
10台
最大10スロットの仮想シャーシ
“Virtual Chassis”
… 最大
20台
最大20スロットの仮想シャーシ
“Virtual Chassis Fabric”
…
最大
128台
最大128スロットの仮想シャーシ
“QFabric”
ユーザーは目指したい最大規模に応じて、
好きなアーキテクチャを選択することが可能です
(最大時の規模以外は同様のコンセプトをどのファブリックでも提供)
MasterRE BackupRE
MasterRE BackupRE
MasterRE BackupRE
データセンターネットワークの理想的なデザイン
Any-to-AnyのOne Network
・1台のスイッチ;管理性の格段の向上
・階層のないフラットネットワーク;パフォーマンス↑・遅延↓
Switch Fabric
1台のスイッチをネットワーク
全体に拡張したアーキテクチャ
Routing Engine
Line Card
Virtual Chassis Fabricとは
2台以上20台以下のQFXシリーズ/EX4300 スイッチを接続することで
仮想的に1台のシャーシ型システムとして動作させるL2/L3 イーサネット
ファブリックテクノロジー
シャーシ型スイッチのメリットをすべて実現した上で、仮想シャーシならではの新たな価値を提供
ネットワーク管理者
Devices to Manage
= 1 !!!
Routing Engine
Line Card
旧来のシャーシ型スイッチとVirtual Chassis技術
シャーシ型スイッチのメリット
 高信頼性ハードウェア
– 冗長ルーティングエンジン
– 冗長スイッチファブリック
– 冗長電源ユニット
– 冗長ファントレイ
 管理の簡便性
– シングルイメージ
– 単一のコンフィグファイル
– 単一のマネージメントIPアドレス
 パフォーマンスとスケーリング
– ハイパフォーマンス
– 大容量のバックプレーン
– モジュラー型構成
LAG 2
LAG 1
Virtual Chassis による更なるメリット:
 物理配置の柔軟性
 低消費電力
 最小構成からスタート可能
 必要最低限のラックスペース
Virtual Chassis Fabricによる更なるメリット:
 10 Member ⇒ 20 Memberまでのサポート
 Fabric構成時のNSSUをサポート
 Intelligent Bandwidth Allocation
 Bi-directional Multicast Distribution Trees
 FCoE Transit (DCBX Support, QFX Only)
Virtual Chassis FabricVirtual Chassis
Architectural Choice
– Virtual Chassis Fabric vs. Virtual Chassis
Spine & Leaf
Braid Ring
High-Performance MeshFat Tree
• Spine & Leafトポロジー構成
• SpineにはQFX5100が必要
• LeafはQFX5100,EX4300などから選択が可能
• 最大で20メンバーまで(Max 4 Spine & 16 Leafs, 2 Spine & 18
Leafs)
• バージョンアップ時にはNSSUをサポート
• Ring、Tree、Mesh、Spine & Leafなど自由なトポロ
ジーで構成が可能
• EX3300〜MXまで様々なHWでサポート
• 最大で10メンバーまで
• バージョンアップ時にはNSSUをサポート
Architectural Choice
– Virtual Chassis Fabric vs. QFabric
QFabric
• Lower latency – ラック内で550 ns ラック間で 1.8usec
• 1GbE インターフェイスのサポート (EX4300 node)
• 外部のDirectorやControl Plane Ethernetの必要はなく、よ
り少ないコンポーネントで構成が可能
• データプレーンを介した統合コントロールプレーン
• Node Groupの概念は無し
• バージョンアップ時にはNSSUをサポート
• FCoE transit と gatewayをサポート
(VCFはFCoE Transitのみ)
• 2011年からの出荷実績
• QFX3000-Gを選択することでVCFよりも巨大なドメイン(128
ノードまで)をSingle Touch Pointで管理することが可能
• Directorが専用のControl Plane Ethernetを介してコントロー
ルプレーンを制御
• Node Groupを設定することによりラインカードの役割を定義
Virtual Chassis Fabric
Virtual Chassis Fabricの構成オプション
2 or 4 Spine Node Deployments
2 Spine Nodes
10GbE 10GbE10GbE
QFX5100-24Q
1 2 18
10GbE 10GbE
3 4
QFX5100-48S
1 2
2 X uplinks
• 18 x 10GbE racks
• 864 x 10GbE ports 10.8:1 OS
10GbE 10GbE10GbE
QFX5100-24Q
1 2 16
10GbE 10GbE
3 4
1 2 3 4
QFX5100-96S8 X uplinks
• 16 x 10GbE racks
• 1536 x 10GbE ports 5:1 OS
4 Spine Nodes
40GbE 40GbE
1 X Switch to Manage 1 X Switch to Manage
Virtual Chassis Fabricをサポートするプラットフォーム
QFX5100-24Q
(40GbE)
QFX5100-48S
(10GbE)
10/40GbE Spine Nodes
EX4300 (1GbE)
QFX5100-48S (10GbE)
QFX3500 (10GbE) QFX3600 (40GbE)
1/10/40GbE Leaf Nodes
QFX5100-24Q (40GbE)QFX5100-96S (10GbE)
QFX5100-48T (10G-T)
最大 20 Members
(2x Spines + 18x Leafs or 4x Spines + 16x Leafs)
Virtual Chassis Fabric License Model
Advanced Feature License
Base License (included)
Virtual Chassis Fabric License
2 AFL licenses per Virtual Chassis Fabric (active and hot-backup RE)
• MPLS
• BGP
• ISIS
2 fabric licenses per Virtual Chassis Fabric (active and hot-backup RE)
• Layer2
• IPv4 /v6 layer 3 routing
• Virtual Chassis
• ZTP
• Insight module
Virtual Chassis Fabricの仮想バックプレーン
前面・背面のファイバー・イーサネット・ポートを自由に
仮想バックプレーンに変換してVCFを構成することが可能
EX4300シリーズ QFX5100シリーズ
10G*N Gbps 仮想バックプレーン(VCポート)
40G*N Gbps 仮想バックプレーン(VCポート)
QFX3000シリーズ
Virtual Chassis Fabricのトポロジー
2または4のSpine Switchを介して全てのLeaf Switchが接続される
全てのLeaf Switch間のレイテンシは常に均一 ※接続方法は、筐体間の距離に応じて
Copper (DAC/QSFP-DAC)かFiberから選択
Routing Engine
Leaf
Spine
40GBASE-SR4
(QFX-QSFP-40G-SR4) MPOケーブル
40GBASE-LX4
(JNP-QSFP-40G-LX4)
LC2芯MMF
(OM3/OM4)
Virtual Chassis FabricのHigh Availability機能
RE間で各種プロトコルのステータスをコピーし、フェイルオーバーに備えることで
障害時におけるL2/L3プロトコルへの影響を最小化
Kernel、FowardingTable、interface info
L3 Protocol State & L2 Protocol State
NSR; OSPF・BGP neighbor
(L3 Protocol)Member0 :RE 0 Member2 : LCMember1:RE 1 Member3 :LC
Master RE Backup RE
Master REに障害が発生しても無瞬断でプロトコル継続運用が可能な
Non Stop Routing(NSR)およびNon Stop Bridging(NSB)
NSB; LACP・xSTP neighbor
(L2 Protocol)
Routing Engine
Leaf
Spine
Member6 : LC Member7 :LCMember4 : LC Member5 :LC
Virtual Chassis FabricのOSバージョンアップ
Member0 :RE 0 Member2 : LCMember1:RE 1 Member3 :LC
Master RE Backup RE
Non Stop Software Upgrade(NSSU)により管理者は、コマンド一行で
システムダウンタイムを約1秒以内の想定※でOSのバージョンアップを実行
Routing Engine
Leaf
Spine
Member6 : LC Member7 :LCMember4 : LC Member5 :LC
管理者によるUpgradeコマンドの発呼後、各RE、Linecardと順に再起動して新OSを反映するため、
ラインカード跨ぎのインターフェイスの保護構成を取ることとNSR/NSBとの併用でOSアップグレード時の影響を最小化することが可能
※すべての環境で1秒以内のダウンタイムを保証するものではありません。環境に応じた事前の検証をお勧めします。
ネットワーク管理者
request system software
non-stop-upgrade !!!
異なるメディアスピードのスイッチをVirtual Chassis Fabric内で収容可能なため
1GbE から 10GbE, 40GbE 環境へのシームレスな移行をサポート
EX4300 EX4300
1GbE Servers
QFX5100-48S/48T
10GbE Servers
Mixed Speed Fabric(1G to 40G)
ネットワーク管理者
Devices to Manage
= 1 !!!
QFX5100-24Q
40GbE Storages
DC
Interconnect
(MPLS)
The Internet
4x spine, 16x leaf による1G & 10G Mixed VCF構成 (Max 16 racks per VCF)
Virtual Chassis Fabricの使用例(1)@DCネットワーク
ネットワーク管理者
Switches to Manage
= 1 !!! For ~28 Racks
DC Edge Router
(MX)
Load-Balancer
Service Gateway
(SRX)
Spine Switch
(QFX5100-24Q x4)
Access Switch
( EX4300-48T x8) Access Switch
( QFX5100-48T x8)
異なるLCへの
NIC Teaming
異なるLCへの
LAG
10G Server1G Server
10G POD1G POD
DC
Interconnect
(MPLS)
The Internet
奇数ラック、偶数ラックでのVCF分割による高可用設計 (Max 36 racks per 2x VCFs)
Virtual Chassis Fabricの使用例(2)@DCネットワーク
ネットワーク管理者
Switches to Manage
= 3 !!! For ~60 racks
DC Edge Router
(MX)
Load-Balancer
Service Gateway
(SRX)
Spine Switch for Even VCF
(QFX5100-24Q x2)
Access Switch
(QFX5100-48T)
異なるVCFへの
Teaming
Critical
Server
Cluster
Server
VCFまたぎの
Clustering
Spine Switch for Odd VCF
(QFX5100-24Q x2)
`
Core VC Switch
(QFX5100-24Q x2)
まとめ:Virtual Chassis Fabricによるメリット
Simplified Network Architecture
階層型の複雑なネットワーク
仮想と物理がさらにデザインを複雑に
Complex Network Architecture
予測可能なパフォーマンスを提供する
超低レイテンシファブリック
Simple Flat Architecture
Spine 1 Spine 2 Spine 3 Spine 4
Leaf 1 Leaf 2 Leaf 3 Leaf 4 Leaf 16
Any to Any
1.8 usec
まとめ:Virtual Chassis Fabricによるメリット
Simplified Operation
Simple Operations
“1” switch to manage
プラグアンドプレイ
大量のネットワークデバイス、
それぞれに管理運用が必要
Complex Operations
Access
Aggregation
Core
Virtual Chassis Fabricの推奨構成とTech Tips
Virtual Chassis Fabricの構成方法について -1
QFX5100/EX4300の出荷時の状態では、スイッチの動作モードはVCモードとなっており、その
ままではVCFを構成することができません。
VCFを構成するにあたっては、VCFのライセンスを投入後、以下のコマンドを使用して、スイッチ
をVirtual Chassis Fabricモードに変更する必要があります。
> request virtual-chassis mode fabric
Virtual Chassis Fabricの構成方法について -2
VCFを構成する際には、
Plug-and-PlayでのVCF構成を提供する“Non-Preprovisioned mode”と、
Spineについての設定のみを投入する”Auto-Provisioned mode”、
最低限の設定投入によりVCを構成する“Preprovisioned mode”から選択が可能です。
一般的により高いSLAが求められるデータセンターへのデプロイ時には“Preprovisioned mode”
でのVCF構成を推奨します。
これによりシリアルでのハードウェア管理による、より安定した運用と、OSアップグレード時に
おけるNSSUサービスが提供されます。
# set virtual-chassis preprovisioned
# set virtual-chassis member 0 role routing-engine
# set virtual-chassis member 0 serial-number 111111111111
# set virtual-chassis member 1 role routing-engine
# set virtual-chassis member 1 serial-number 222222222222
# set virtual-chassis member 2 role line-card
# set virtual-chassis member 2 serial-number 333333333333
# set virtual-chassis member 3 role line-card
# set virtual-chassis member 3 serial-number 444444444444
…
Preprovisioned modeを宣言
Spineとして動作させる2〜4台の筐体をRouting-Engineとする
その他の筐体のRoleはすべてLine-card
各筐体毎のシリアルNo.を投入
Virtual Chassis Fabricの接続方法について -1
VCFを構成する際には、VCFの仮想バックプレーン(VCP)同士を接続する必要があります。
プラットフォームによって工場出荷時の状態でVCPが設定されているものとそうでないものがあり
ます。
ファイバーのイーサネットポートをVCPにコンバートするコマンドは以下の通りです。
必要に応じてVCPの設定追加・削除をした上でVC接続を行ってください。
request virtual-chassis vc-port set pic-slot <pic-slot> port <port-number> member <member-id>
request virtual-chassis vc-port delete pic-slot <pic-slot> port <port-number> member <member-id>
EX4300シリーズQFX5100シリーズ
デフォルトのVCP
(et-0/2/0~3)
デフォルトのVCP
(なし)
ファイバー・
イーサネットポート
ファイバー・
イーサネットポート
Virtual Chassis Fabricの接続方法について -2
VCPの接続には距離に応じてCopper(DAC/QSFP-DAC)か、Optics(SFP+/QSFP+)を使用した
光ファイバーで接続するかを選択可能です。
※ 40GのポートをブレイクアウトしてVCPとして使用することはできません。
Spine間は接続しない
Virtual Chassis Fabricの接続方法について -3
40Gのリンクを利用して広帯域バックプレーンを構成する際には、
QSFP+もしくはQSFP-DACを利用して接続を行います。
さらに“JNP-QSFP-40G-LX4”オプティックスを利用することで10GbEと同じMMFの2芯LCコネク
タで40GbEのバックプレーンを提供することも可能となり、10GbE環境と同様のケーブリング環
境でより広帯域ファブリックを安価に構成することも可能です。
EX4300シリーズ QFX5100シリーズ
スペック
レート 40Gbps (10G x4)
ファイバータイプ MMF
ファイバーコア 50 / 125 um
到達距離 OM3/OM4 100m /150m
Power mim/max -7.0 dBm/4.3dBm
波長 (nm) 1271 ~ 1331
DuplexLC
DuplexLC
Duplex 10-Gbps
(4 different wavelengths)
JNP-QSFP-40G-LX4
Virtual Chassis Fabricへのアクセスについて -1
Virtual Chassis Fabricを構成すると、複数台のスイッチが1台の仮想シャーシ型スイッチとして
動作します。VCFへのアクセスはConsole接続経由とネットワーク経由と二種類の選択肢がありま
すが、それぞれ以下の様な概念で動作しています。
・コンソールアクセス
ネットワーク管理者が任意のラインカード上のコンソールポートに接続すると、接続コネクショ
ンが内部的にMaster REにリダイレクトされます。そのため、物理的な場所を気にする必要なく
REにアクセスすることが可能です。
ネットワーク管理者
Member2 :LC 2
Member3 :LC 3
Member4 :LC 4
Console
Master RE
Backup RE
Virtual Chassis Fabricへのアクセスについて -2
・ネットワークアクセス
仮想管理インターフェイスであるVME(Virtual Management Ethernet)にIPアドレスを付与す
ることでMaster REがVMEのアドレスへのアクセス要求に返答を行います。これによりひとつの
IPアドレスで仮想シャーシへのネットワークアクセスが提供されます。
ケーブリングはMaster REになりうる2〜4つの筐体でのみリンクアップさせておけば他は不要で
す。
ネットワーク管理者
SSH,Telnet,FTP,etc…
管理セグメント
set interface vme unit 0 family inet address <address/mask>
Member2 :LC 2
Member3 :LC 3
Member4 :LC 4
Master RE
Backup RE
Virtual Chassis Fabric メンバー追加方法について
VCFにメンバーの追加を行うには、以下の手順に沿って実行することをおすすめします。
Step.1 動作しているVCFメンバーと同じバージョン※にしたデフォルトコンフィグの筐体を用意し、
動作モードをFabricに変更し、必要なポートをVCPにコンバートした後、電源をOffにしておく
Step.2 必要に応じて、既存VCFに新たに接続するファイバ・イーサネットポートをVCPにコンバートする※
Step.3 新しいメンバーの筐体シリアル番号をVCのコンフィグに追加してCommitする
Step.4 追加する新しいメンバーからまず1本だけVCPの物理結線を行う
Step.5 追加する新しいメンバーの電源を投入して起動するのを待つ
Step.6 正しく新しいメンバーがVCFに組み込まれていることを確認する
Step.7 2本目のVCPの接続を行う
Master RE
※Auto Software UpgradeやAuto VCP Provisioningの手順はここでは割愛
Master RE
Step.1 Step.2~3
Master RE
Step.4〜5
Master RE
Step.6〜7
Virtual Chassis Fabric メンバー交換方法について
ハードウェア障害などによりVC内のメンバーを交換する必要がある場合には、
以下の手順に沿って交換の実行を行うことをおすすめします。
Step.1 交換したいメンバーのシャットダウンを行い、VCFから取り外す
Step.2 OSバージョンをあわせた新しいメンバーを用意し、動作モードをFabricに変更し、接続予定のファイバ・イーサネット
ポートをVCPにコンバートする
Step.3 古いメンバーの筐体シリアル番号を新しいメンバーのものに書き換えてCommitする
Step.4 追加する新しいメンバーからまず1本だけVCPの物理結線を行う
Step.5 追加する新しいメンバーの電源を投入して起動するのを待つ
Step.6 正しく新しいメンバーがVCFに組み込まれていることを確認する
Step.7 2本目のVCPの接続を行う
Master RE Master RE
Step.2~3
Master RE
Step.4〜5
Master RE
Step.6〜7Step.1
replace pattern XXXXXXXXXXXX with YYYYYYYYYYYY
commit
YYYYYYYYYYYY
XXXXXXXXXXXX
Virtual Chassis Fabric HA機能について
Routing Engine(RE)の障害時に出来る限り高速な切り替わりを提供するためには、以下の4行
の設定投入をしておく必要があります。
VCFの初期構成時点で使用しているL2/L3プロトコルの種類に限らずこの4行の設定は無条件に投
入しておくことをおすすめします。
set chassis redundancy graceful-switchover
set routing-options nonstop-routing
set protocols layer2-control nonstop-bridging
set system commit synchronize
KernelやInterface、L2/L3テーブルをRE間で同期
L3のプロトコルステータスをRE間で同期
L2のプロトコルステータスをRE間で同期
おまじない
Virtual Chassis Fabric HA構成について
Virtual Chassis Fabricによるネットワークデザインにおいて、どのような障害時においてもより
高速なフェイルオーバーを提供するコツは、シングルポイント障害においてインターフェイスの
消滅を招かない構成です。
出来る限りラインカードをまたぐLAGによる外部接続デザインとしておくことをおすすめします。
これはNSSUを使用したOSバージョンアップ時にシステムに対してダウンタイムを最小化する前
提条件でもあります。
Master RE
Backup RE
Master RE
New Master RE
このデザインの場合、New MasterはLCの死活、インターフェイスの有無、プロトコル
への反映などの処理を行うため、切り替わり時間が多少遅くなる
Master RE
Backup RE
外部との接続をラインカード跨ぎの論理インターフェイス(LAG)にしておくこと
で障害時におけるより高速なフェイルオーバーを提供することが可能となる
Virtual Chassis Fabric バックプレーン増強について
同一VCFメンバー間で複数の仮想バックプレーン(VCP)が接続されたことを認識すると、
その間は自動的にLAGが構成され、バックプレーン帯域がリンク数*Nへと増強されていきます。
この際、設定は特に必要ありません。
Virtual Chassis Fabric トラフィックフローについて
• Multi Path Forwarding
– ユニキャストパケット転送は、基本的には、SPFアルゴリズムに従います。
ただし、Shortest Pathのみを使用するわけではなく、Egress NodeへのPathが
複数あった場合には、そのPathの帯域に応じた割り振りを行い、全てのPathを使用します。
Ingress
Egress
Node1からNode5へのパケット転送において、1⇒2 or 3への
帯域は同じだが、2⇒5は40G, 3⇒5は20Gとなるため、
Ingress Node1は、Node2へNode3に比較して2倍のトラフィ
ックを送出する。
Mixed VCF構成時の各種テーブルサイズについて
• Mixed VCFを構成する際には、各テーブルの最大値は、そのVCFのメンバーのうち、
一番テーブルサイズの小さい物のサイズがVCF全体に適用されます。
MAC ARP Unicast Route IPv6 Unicast Route Host Route
QFX5100 288000 48000 128000 64000 208000
QFX3500 128000 8000 16000 8000 8000
EX4300 64000 64000 16000 4000 32000
16K (L3 Host)
56K (L3 Host)
88K (L3 Host)
120K (L3 Host)
128K (LPM)16K (L3 Host)
288k (L2Mac)
224K (L2 Mac)
160K (L2 Mac)
96K (L2 Mac)
32K (L2 MAC)
16K (LPM)
16K (LPM)
16K (LPM)
16K (LPM)
Profile 1. l2-heavy-one
Profile 2. l2-heavy-two
Profile 3. l2-heavy-three (Default)
Profile 4. l3-heavy
Profile 5. LPM-heavy
• QFX5100のUnified Forwarding Tableを使用し、VCFとしてのPFEの収容プロファイルを
変更することも可能ですが、Mixed VCFではサポートされません。
QFX5100-24QのPort Mode
QFX5100-24Qには以下のように、いくつかの動作モードがあります。
モードの変更にはPFEの再起動を必要とするため、サービスイン前によく検討し、
決定しておくことをお勧めします。
• Default Mode
• オンボードポート: 全てBreakout可能
• アップリンクモジュールポート: 4x40G PICのみサポート, Breakout不可
• 104 Port Mode
• オンボードポート: 全てのポートがデフォルトでBreakoutされ、変更できない
• アップリンクモジュールポート: スロット1において、4x40G PICのポート0, 2のみ使用可能(Breakout)
• VC/VCFでの使用は不可
• Non-Oversubscribed Mode
• オンボードポート: 全てBreakout可能
• アップリンクモジュール: 使用不可
• Flexi-PIC Mode
• オンボードポート: ポート 4-23のみBreakout可能
• アップリンクモジュールポート: Breakout不可, 8x10G PICをサポート
8x10GbE Module on QFX5100-24Q
QFX5100-24Qでネイティブの10GbEポートを収容したい場合、8x10G PICを使用
することができます。ただし、8x10G PICはFlexi-PIC Modeでのみサポートされる
ため、使用する予定があるのであれば、事前にモードを変更しておくことを推奨し
ます。
• Flexi-PIC Mode
• オンボードポート: ポート 4-23のみBreakout可能
• アップリンクモジュールポート: Breakout不可能。 8x10G PICをサポート
Virtual Chassis Fabric NSSUについて -1
管理者がVCFに対してNSSUサービスを利用してバージョンアップを実施した場合、以下の順序で
各メンバーに新しいバージョンが反映されます。
コマンド投入後は、バージョンアップ作業はシステムにより自動的に行われるため制御はできま
せん。
request system software nonstop-upgrade /var/tmp/<package>
Master RE Backup RE
FPC0 FPC1 ←最初にリブート
FPC2
2番目にリブート
FPC4
4番目にリブート
FPC3
3番目にリブート
FPC5
5番目にリブート
最後にBackup REに
New Masterを引き継ぎながらリブート
↓
Step.0 管理者がNSSUコマンドを発行
Step.1 新OSイメージを全メンバーにコピー
Step.2 Backup REがリブート
Step.3 Linecardが若番から順にリブート
Step.4 Master REがリブート
※この際、Backup REがNew Masterを引き継ぎ、
Old Masterが新OSで立ち上がってきたらシステム全体のバージョ
ンUpが完了する
※ NSSUを実行する場合、preprovisioningされたvirtual chassisの設定上、Routing-Engineは2つ以上設定できません。
4つのSpineが存在する構成の場合、NSSUを行う前に不要なRouting-EngineはLinecardに変更する必要があります。
Virtual Chassis Fabric NSSUについて -2
NSSUによるバージョンアップ完了までの時間短縮の手法として、オプションとしてラインカード
のNSSUグルーピングが設定可能です。これにより各ラインカードがリブートを行う総計時間が短
縮されます。
Step.0 管理者がNSSUコマンドを発行
Step.1 新OSイメージを全メンバーにコピー
Step.2 Backup REがリブート
Step.3 若番のNSSUグループから順にリブート
Step.4 Master REがリブート
Master RE
最後にBackup REに
New Masterを引き継ぎながらリブート
↓
FPC0
Backup RE
FPC1 ←最初にリブート
NSSU Group1 NSSU Group1NSSU Group2 NSSU Group2
NSSU Group2
↑
2番目にリブート
(Groupごと同時)
↑
3番目にリブート
(Groupごと同時)
※この例で例えるとFPC1とFPC5を同一NSSUグループに投入するとNSSU時にVCがSplitして障害となるので注意
root@Juniper# show chassis nssu
upgrade-group G1 {
fpcs [ 2 4 ];
}
upgrade-group G2 {
fpcs [ 3 5 ]; FPC2 FPC4FPC3 FPC5
↑
2番目にリブート
(Groupごと同時)
↑
3番目にリブート
(Groupごと同時)
Virtual Chassis Fabric Local Biasについて
LAGのハッシングによる送出インターフェイス選択時に、VCバックプレーンへの無駄なパケット
の流入を防ぐためにLocal Biasというオプションを設定可能です。この設定によりラインカードの
ローカルに送出インターフェイスがある場合には、ハッシュによるアウトプットインターフェイ
スの選択よりも、ローカル側を優先する動作を行います。これによりVCバックプレーン帯域の浪
費を保護します。
set interfaces ae0 aggregated-ether-options local-bias
AEメンバーの送出ポートを
ハッシュで決めるためフローによっては
パケットがVCバックプレーンを
渡ってこちら側のPortから送出される
#Local Biasを設定しない場合
AE0
VCのラインカードからみてローカルポートか
ら送出されうる通信には、AEメンバーのハッ
シュによる送出ポートの選択を行わない
これによるVCバックプレーンの無駄な浪費に
よる帯域圧迫を削減
#Local Biasを設定した場合
AE0
Virtual Chassis Fabricに関するドキュメント
以下にVirtual Chassis Fabricを解説する各種資料がありますので、必要に応じてご参照ください。
・Links
http://www.juniper.net/techpubs/en_US/release-independent/junos/information-
products/pathway-pages/hardware/qfx-series/VCF.pdf
https://www.juniper.net/techpubs/en_US/junos14.1/topics/concept/virtual-chassis-ex-
qfx-series-mixed-understanding.html
・Whitepaper
http://www.juniper.net/assets/us/en/local/pdf/whitepapers/2000571-en.pdf
Thank you
Virtual Chassis Fabric for Cloud Builder

Virtual Chassis Fabric for Cloud Builder

  • 1.
    Virtual Chassis Fabric forCloud Builders 2015/08 2016/10更新 Juniper Networks, K.K.
  • 2.
  • 3.
  • 4.
    データセンターが抱える今の課題  サーバーNICの1GE から10GE への移行  低いアプリケーションパフォーマンス  規模、サービス、アプリケーションを追加する際の迅速な対応  複数のネットワークを管理  大量のネットワーク機器を個別に管理  リンクと帯域の無駄遣い 1 2 レガシーなネットワークパフォーマンス/アーキテクチャからの脱却 レガシーなネットワーク管理手法からの脱却
  • 5.
  • 6.
  • 7.
    レガシーデータセンターにおけるネットワークの問題点 低いパフォーマンス ・階層化ネットワークは東西方向のトラフィックが増大する 仮想化サーバー環境やSOAアプリケーションに悪影響 ・STPやVRRPは有効な帯域を半減させる 困難なスケールアウト ・物理サーバの数が増えると、さらなる階層を必要とし、 ネットワークが複雑化する 複雑な管理 ・すべてのネットワーク機器を個別に管理する必要があるため、 装置の数が増えると飛躍的に管理コストが上昇 レガシーネットワークは非効率, 複雑, そして煩雑な管理を要し、スケールアウトには不向き ÑÑ Ñ Access Aggregation Core サーバー間通信西 東
  • 8.
  • 9.
    Virtual Chassis Fabric (upto 20 linecards) Spine 1 Spine 2 Spine 3 Spine 4 Optimized for 1/10/40GbE environments EX4300, QFX3500, QFX3600 and QFX5100 members EX4300, QFX3500, QFX3600 or QFX5100 members Virtual Chassis (up to 10 linecards) Optimized for 1/10GbE environments QFabric (up to 128 linecards) QFX3500, QFX3600 or QFX5100 Nodes Optimized for 10/40GbE environments ジュニパーは規模の違う3種類のイーサネットファブリックを提供 Juniper Fabric ARCHITECURES Managed as a Single L2/L3 Switch ※本資料では主にVirtual Chassis Fabric について詳細な解説を提供します。
  • 10.
  • 11.
    ジュニパーのイーサネット・ファブリック 物理的・論理的に シンプルに 運用を シンプルに ネットワーク管理者 複雑な構成やプロトコルの管理はしたくない 大量のネットワーク機器の管理をしたくない データセンターネットワークの課題: 課題の多くは、実はシャーシ型スイッチで解決が可能 ネットワークをすべてシャーシ型スイッチで管理運用すると 実は多くの悩みを解消できる 拡張性 →ラインカードの増設で対応可能 信頼性 → 内部冗長化されたハードウェア 信頼性 → 豊富なHA機能とISSUのサポート パフォーマンス → 分散L2/3フォワーディング 物理配置の柔軟性 → 高いRUと固定型配備 運用コスト → 高い消費電力と熱量 導入コスト → 高い製品コスト 管理容易性 → 1箇所からシステムの広範囲を管理 ただし問題も… 導入コスト → 高いケーブリングコスト レガシーな シャーシ型スイッチ
  • 12.
    ジュニパーのイーサネット・ファブリック ジュニパーの解決策: ソフトウェアの力で仮想的にシャーシ型スイッチをエミュレート レガシーな シャーシ型スイッチ ネットワーク管理者 仮想シャーシ型スイッチ (イーサネット・ファブリック) Devices to Manage =1 !!! L2/L3 Local Switching !!! L2/L3 Protocol HA & NSSU !!! シャーシ型スイッチをソフトウェアでエミュレートすることで ボックス型スイッチにシャーシ型スイッチと同等のメリットを付与し、 さらに物理的な制約を受けない仮想シャーシならではのメリットを提供
  • 13.
    ジュニパーのイーサネット・ファブリック 規模に応じた3種類の仮想シャーシ=イーサネットファブリック: … 最大 10台 最大10スロットの仮想シャーシ “Virtual Chassis” …最大 20台 最大20スロットの仮想シャーシ “Virtual Chassis Fabric” … 最大 128台 最大128スロットの仮想シャーシ “QFabric” ユーザーは目指したい最大規模に応じて、 好きなアーキテクチャを選択することが可能です (最大時の規模以外は同様のコンセプトをどのファブリックでも提供) MasterRE BackupRE MasterRE BackupRE MasterRE BackupRE
  • 14.
  • 15.
    Routing Engine Line Card VirtualChassis Fabricとは 2台以上20台以下のQFXシリーズ/EX4300 スイッチを接続することで 仮想的に1台のシャーシ型システムとして動作させるL2/L3 イーサネット ファブリックテクノロジー シャーシ型スイッチのメリットをすべて実現した上で、仮想シャーシならではの新たな価値を提供 ネットワーク管理者 Devices to Manage = 1 !!! Routing Engine Line Card
  • 16.
    旧来のシャーシ型スイッチとVirtual Chassis技術 シャーシ型スイッチのメリット  高信頼性ハードウェア –冗長ルーティングエンジン – 冗長スイッチファブリック – 冗長電源ユニット – 冗長ファントレイ  管理の簡便性 – シングルイメージ – 単一のコンフィグファイル – 単一のマネージメントIPアドレス  パフォーマンスとスケーリング – ハイパフォーマンス – 大容量のバックプレーン – モジュラー型構成 LAG 2 LAG 1 Virtual Chassis による更なるメリット:  物理配置の柔軟性  低消費電力  最小構成からスタート可能  必要最低限のラックスペース Virtual Chassis Fabricによる更なるメリット:  10 Member ⇒ 20 Memberまでのサポート  Fabric構成時のNSSUをサポート  Intelligent Bandwidth Allocation  Bi-directional Multicast Distribution Trees  FCoE Transit (DCBX Support, QFX Only)
  • 17.
    Virtual Chassis FabricVirtualChassis Architectural Choice – Virtual Chassis Fabric vs. Virtual Chassis Spine & Leaf Braid Ring High-Performance MeshFat Tree • Spine & Leafトポロジー構成 • SpineにはQFX5100が必要 • LeafはQFX5100,EX4300などから選択が可能 • 最大で20メンバーまで(Max 4 Spine & 16 Leafs, 2 Spine & 18 Leafs) • バージョンアップ時にはNSSUをサポート • Ring、Tree、Mesh、Spine & Leafなど自由なトポロ ジーで構成が可能 • EX3300〜MXまで様々なHWでサポート • 最大で10メンバーまで • バージョンアップ時にはNSSUをサポート
  • 18.
    Architectural Choice – VirtualChassis Fabric vs. QFabric QFabric • Lower latency – ラック内で550 ns ラック間で 1.8usec • 1GbE インターフェイスのサポート (EX4300 node) • 外部のDirectorやControl Plane Ethernetの必要はなく、よ り少ないコンポーネントで構成が可能 • データプレーンを介した統合コントロールプレーン • Node Groupの概念は無し • バージョンアップ時にはNSSUをサポート • FCoE transit と gatewayをサポート (VCFはFCoE Transitのみ) • 2011年からの出荷実績 • QFX3000-Gを選択することでVCFよりも巨大なドメイン(128 ノードまで)をSingle Touch Pointで管理することが可能 • Directorが専用のControl Plane Ethernetを介してコントロー ルプレーンを制御 • Node Groupを設定することによりラインカードの役割を定義 Virtual Chassis Fabric
  • 19.
    Virtual Chassis Fabricの構成オプション 2or 4 Spine Node Deployments 2 Spine Nodes 10GbE 10GbE10GbE QFX5100-24Q 1 2 18 10GbE 10GbE 3 4 QFX5100-48S 1 2 2 X uplinks • 18 x 10GbE racks • 864 x 10GbE ports 10.8:1 OS 10GbE 10GbE10GbE QFX5100-24Q 1 2 16 10GbE 10GbE 3 4 1 2 3 4 QFX5100-96S8 X uplinks • 16 x 10GbE racks • 1536 x 10GbE ports 5:1 OS 4 Spine Nodes 40GbE 40GbE 1 X Switch to Manage 1 X Switch to Manage
  • 20.
    Virtual Chassis Fabricをサポートするプラットフォーム QFX5100-24Q (40GbE) QFX5100-48S (10GbE) 10/40GbESpine Nodes EX4300 (1GbE) QFX5100-48S (10GbE) QFX3500 (10GbE) QFX3600 (40GbE) 1/10/40GbE Leaf Nodes QFX5100-24Q (40GbE)QFX5100-96S (10GbE) QFX5100-48T (10G-T) 最大 20 Members (2x Spines + 18x Leafs or 4x Spines + 16x Leafs)
  • 21.
    Virtual Chassis FabricLicense Model Advanced Feature License Base License (included) Virtual Chassis Fabric License 2 AFL licenses per Virtual Chassis Fabric (active and hot-backup RE) • MPLS • BGP • ISIS 2 fabric licenses per Virtual Chassis Fabric (active and hot-backup RE) • Layer2 • IPv4 /v6 layer 3 routing • Virtual Chassis • ZTP • Insight module
  • 22.
    Virtual Chassis Fabricの仮想バックプレーン 前面・背面のファイバー・イーサネット・ポートを自由に 仮想バックプレーンに変換してVCFを構成することが可能 EX4300シリーズQFX5100シリーズ 10G*N Gbps 仮想バックプレーン(VCポート) 40G*N Gbps 仮想バックプレーン(VCポート) QFX3000シリーズ
  • 23.
    Virtual Chassis Fabricのトポロジー 2または4のSpineSwitchを介して全てのLeaf Switchが接続される 全てのLeaf Switch間のレイテンシは常に均一 ※接続方法は、筐体間の距離に応じて Copper (DAC/QSFP-DAC)かFiberから選択 Routing Engine Leaf Spine 40GBASE-SR4 (QFX-QSFP-40G-SR4) MPOケーブル 40GBASE-LX4 (JNP-QSFP-40G-LX4) LC2芯MMF (OM3/OM4)
  • 24.
    Virtual Chassis FabricのHighAvailability機能 RE間で各種プロトコルのステータスをコピーし、フェイルオーバーに備えることで 障害時におけるL2/L3プロトコルへの影響を最小化 Kernel、FowardingTable、interface info L3 Protocol State & L2 Protocol State NSR; OSPF・BGP neighbor (L3 Protocol)Member0 :RE 0 Member2 : LCMember1:RE 1 Member3 :LC Master RE Backup RE Master REに障害が発生しても無瞬断でプロトコル継続運用が可能な Non Stop Routing(NSR)およびNon Stop Bridging(NSB) NSB; LACP・xSTP neighbor (L2 Protocol) Routing Engine Leaf Spine Member6 : LC Member7 :LCMember4 : LC Member5 :LC
  • 25.
    Virtual Chassis FabricのOSバージョンアップ Member0:RE 0 Member2 : LCMember1:RE 1 Member3 :LC Master RE Backup RE Non Stop Software Upgrade(NSSU)により管理者は、コマンド一行で システムダウンタイムを約1秒以内の想定※でOSのバージョンアップを実行 Routing Engine Leaf Spine Member6 : LC Member7 :LCMember4 : LC Member5 :LC 管理者によるUpgradeコマンドの発呼後、各RE、Linecardと順に再起動して新OSを反映するため、 ラインカード跨ぎのインターフェイスの保護構成を取ることとNSR/NSBとの併用でOSアップグレード時の影響を最小化することが可能 ※すべての環境で1秒以内のダウンタイムを保証するものではありません。環境に応じた事前の検証をお勧めします。 ネットワーク管理者 request system software non-stop-upgrade !!!
  • 26.
    異なるメディアスピードのスイッチをVirtual Chassis Fabric内で収容可能なため 1GbEから 10GbE, 40GbE 環境へのシームレスな移行をサポート EX4300 EX4300 1GbE Servers QFX5100-48S/48T 10GbE Servers Mixed Speed Fabric(1G to 40G) ネットワーク管理者 Devices to Manage = 1 !!! QFX5100-24Q 40GbE Storages
  • 27.
    DC Interconnect (MPLS) The Internet 4x spine,16x leaf による1G & 10G Mixed VCF構成 (Max 16 racks per VCF) Virtual Chassis Fabricの使用例(1)@DCネットワーク ネットワーク管理者 Switches to Manage = 1 !!! For ~28 Racks DC Edge Router (MX) Load-Balancer Service Gateway (SRX) Spine Switch (QFX5100-24Q x4) Access Switch ( EX4300-48T x8) Access Switch ( QFX5100-48T x8) 異なるLCへの NIC Teaming 異なるLCへの LAG 10G Server1G Server 10G POD1G POD
  • 28.
    DC Interconnect (MPLS) The Internet 奇数ラック、偶数ラックでのVCF分割による高可用設計 (Max36 racks per 2x VCFs) Virtual Chassis Fabricの使用例(2)@DCネットワーク ネットワーク管理者 Switches to Manage = 3 !!! For ~60 racks DC Edge Router (MX) Load-Balancer Service Gateway (SRX) Spine Switch for Even VCF (QFX5100-24Q x2) Access Switch (QFX5100-48T) 異なるVCFへの Teaming Critical Server Cluster Server VCFまたぎの Clustering Spine Switch for Odd VCF (QFX5100-24Q x2) ` Core VC Switch (QFX5100-24Q x2)
  • 29.
    まとめ:Virtual Chassis Fabricによるメリット SimplifiedNetwork Architecture 階層型の複雑なネットワーク 仮想と物理がさらにデザインを複雑に Complex Network Architecture 予測可能なパフォーマンスを提供する 超低レイテンシファブリック Simple Flat Architecture Spine 1 Spine 2 Spine 3 Spine 4 Leaf 1 Leaf 2 Leaf 3 Leaf 4 Leaf 16 Any to Any 1.8 usec
  • 30.
    まとめ:Virtual Chassis Fabricによるメリット SimplifiedOperation Simple Operations “1” switch to manage プラグアンドプレイ 大量のネットワークデバイス、 それぞれに管理運用が必要 Complex Operations Access Aggregation Core
  • 31.
  • 32.
    Virtual Chassis Fabricの構成方法について-1 QFX5100/EX4300の出荷時の状態では、スイッチの動作モードはVCモードとなっており、その ままではVCFを構成することができません。 VCFを構成するにあたっては、VCFのライセンスを投入後、以下のコマンドを使用して、スイッチ をVirtual Chassis Fabricモードに変更する必要があります。 > request virtual-chassis mode fabric
  • 33.
    Virtual Chassis Fabricの構成方法について-2 VCFを構成する際には、 Plug-and-PlayでのVCF構成を提供する“Non-Preprovisioned mode”と、 Spineについての設定のみを投入する”Auto-Provisioned mode”、 最低限の設定投入によりVCを構成する“Preprovisioned mode”から選択が可能です。 一般的により高いSLAが求められるデータセンターへのデプロイ時には“Preprovisioned mode” でのVCF構成を推奨します。 これによりシリアルでのハードウェア管理による、より安定した運用と、OSアップグレード時に おけるNSSUサービスが提供されます。 # set virtual-chassis preprovisioned # set virtual-chassis member 0 role routing-engine # set virtual-chassis member 0 serial-number 111111111111 # set virtual-chassis member 1 role routing-engine # set virtual-chassis member 1 serial-number 222222222222 # set virtual-chassis member 2 role line-card # set virtual-chassis member 2 serial-number 333333333333 # set virtual-chassis member 3 role line-card # set virtual-chassis member 3 serial-number 444444444444 … Preprovisioned modeを宣言 Spineとして動作させる2〜4台の筐体をRouting-Engineとする その他の筐体のRoleはすべてLine-card 各筐体毎のシリアルNo.を投入
  • 34.
    Virtual Chassis Fabricの接続方法について-1 VCFを構成する際には、VCFの仮想バックプレーン(VCP)同士を接続する必要があります。 プラットフォームによって工場出荷時の状態でVCPが設定されているものとそうでないものがあり ます。 ファイバーのイーサネットポートをVCPにコンバートするコマンドは以下の通りです。 必要に応じてVCPの設定追加・削除をした上でVC接続を行ってください。 request virtual-chassis vc-port set pic-slot <pic-slot> port <port-number> member <member-id> request virtual-chassis vc-port delete pic-slot <pic-slot> port <port-number> member <member-id> EX4300シリーズQFX5100シリーズ デフォルトのVCP (et-0/2/0~3) デフォルトのVCP (なし) ファイバー・ イーサネットポート ファイバー・ イーサネットポート
  • 35.
    Virtual Chassis Fabricの接続方法について-2 VCPの接続には距離に応じてCopper(DAC/QSFP-DAC)か、Optics(SFP+/QSFP+)を使用した 光ファイバーで接続するかを選択可能です。 ※ 40GのポートをブレイクアウトしてVCPとして使用することはできません。 Spine間は接続しない
  • 36.
    Virtual Chassis Fabricの接続方法について-3 40Gのリンクを利用して広帯域バックプレーンを構成する際には、 QSFP+もしくはQSFP-DACを利用して接続を行います。 さらに“JNP-QSFP-40G-LX4”オプティックスを利用することで10GbEと同じMMFの2芯LCコネク タで40GbEのバックプレーンを提供することも可能となり、10GbE環境と同様のケーブリング環 境でより広帯域ファブリックを安価に構成することも可能です。 EX4300シリーズ QFX5100シリーズ スペック レート 40Gbps (10G x4) ファイバータイプ MMF ファイバーコア 50 / 125 um 到達距離 OM3/OM4 100m /150m Power mim/max -7.0 dBm/4.3dBm 波長 (nm) 1271 ~ 1331 DuplexLC DuplexLC Duplex 10-Gbps (4 different wavelengths) JNP-QSFP-40G-LX4
  • 37.
    Virtual Chassis Fabricへのアクセスについて-1 Virtual Chassis Fabricを構成すると、複数台のスイッチが1台の仮想シャーシ型スイッチとして 動作します。VCFへのアクセスはConsole接続経由とネットワーク経由と二種類の選択肢がありま すが、それぞれ以下の様な概念で動作しています。 ・コンソールアクセス ネットワーク管理者が任意のラインカード上のコンソールポートに接続すると、接続コネクショ ンが内部的にMaster REにリダイレクトされます。そのため、物理的な場所を気にする必要なく REにアクセスすることが可能です。 ネットワーク管理者 Member2 :LC 2 Member3 :LC 3 Member4 :LC 4 Console Master RE Backup RE
  • 38.
    Virtual Chassis Fabricへのアクセスについて-2 ・ネットワークアクセス 仮想管理インターフェイスであるVME(Virtual Management Ethernet)にIPアドレスを付与す ることでMaster REがVMEのアドレスへのアクセス要求に返答を行います。これによりひとつの IPアドレスで仮想シャーシへのネットワークアクセスが提供されます。 ケーブリングはMaster REになりうる2〜4つの筐体でのみリンクアップさせておけば他は不要で す。 ネットワーク管理者 SSH,Telnet,FTP,etc… 管理セグメント set interface vme unit 0 family inet address <address/mask> Member2 :LC 2 Member3 :LC 3 Member4 :LC 4 Master RE Backup RE
  • 39.
    Virtual Chassis Fabricメンバー追加方法について VCFにメンバーの追加を行うには、以下の手順に沿って実行することをおすすめします。 Step.1 動作しているVCFメンバーと同じバージョン※にしたデフォルトコンフィグの筐体を用意し、 動作モードをFabricに変更し、必要なポートをVCPにコンバートした後、電源をOffにしておく Step.2 必要に応じて、既存VCFに新たに接続するファイバ・イーサネットポートをVCPにコンバートする※ Step.3 新しいメンバーの筐体シリアル番号をVCのコンフィグに追加してCommitする Step.4 追加する新しいメンバーからまず1本だけVCPの物理結線を行う Step.5 追加する新しいメンバーの電源を投入して起動するのを待つ Step.6 正しく新しいメンバーがVCFに組み込まれていることを確認する Step.7 2本目のVCPの接続を行う Master RE ※Auto Software UpgradeやAuto VCP Provisioningの手順はここでは割愛 Master RE Step.1 Step.2~3 Master RE Step.4〜5 Master RE Step.6〜7
  • 40.
    Virtual Chassis Fabricメンバー交換方法について ハードウェア障害などによりVC内のメンバーを交換する必要がある場合には、 以下の手順に沿って交換の実行を行うことをおすすめします。 Step.1 交換したいメンバーのシャットダウンを行い、VCFから取り外す Step.2 OSバージョンをあわせた新しいメンバーを用意し、動作モードをFabricに変更し、接続予定のファイバ・イーサネット ポートをVCPにコンバートする Step.3 古いメンバーの筐体シリアル番号を新しいメンバーのものに書き換えてCommitする Step.4 追加する新しいメンバーからまず1本だけVCPの物理結線を行う Step.5 追加する新しいメンバーの電源を投入して起動するのを待つ Step.6 正しく新しいメンバーがVCFに組み込まれていることを確認する Step.7 2本目のVCPの接続を行う Master RE Master RE Step.2~3 Master RE Step.4〜5 Master RE Step.6〜7Step.1 replace pattern XXXXXXXXXXXX with YYYYYYYYYYYY commit YYYYYYYYYYYY XXXXXXXXXXXX
  • 41.
    Virtual Chassis FabricHA機能について Routing Engine(RE)の障害時に出来る限り高速な切り替わりを提供するためには、以下の4行 の設定投入をしておく必要があります。 VCFの初期構成時点で使用しているL2/L3プロトコルの種類に限らずこの4行の設定は無条件に投 入しておくことをおすすめします。 set chassis redundancy graceful-switchover set routing-options nonstop-routing set protocols layer2-control nonstop-bridging set system commit synchronize KernelやInterface、L2/L3テーブルをRE間で同期 L3のプロトコルステータスをRE間で同期 L2のプロトコルステータスをRE間で同期 おまじない
  • 42.
    Virtual Chassis FabricHA構成について Virtual Chassis Fabricによるネットワークデザインにおいて、どのような障害時においてもより 高速なフェイルオーバーを提供するコツは、シングルポイント障害においてインターフェイスの 消滅を招かない構成です。 出来る限りラインカードをまたぐLAGによる外部接続デザインとしておくことをおすすめします。 これはNSSUを使用したOSバージョンアップ時にシステムに対してダウンタイムを最小化する前 提条件でもあります。 Master RE Backup RE Master RE New Master RE このデザインの場合、New MasterはLCの死活、インターフェイスの有無、プロトコル への反映などの処理を行うため、切り替わり時間が多少遅くなる Master RE Backup RE 外部との接続をラインカード跨ぎの論理インターフェイス(LAG)にしておくこと で障害時におけるより高速なフェイルオーバーを提供することが可能となる
  • 43.
    Virtual Chassis Fabricバックプレーン増強について 同一VCFメンバー間で複数の仮想バックプレーン(VCP)が接続されたことを認識すると、 その間は自動的にLAGが構成され、バックプレーン帯域がリンク数*Nへと増強されていきます。 この際、設定は特に必要ありません。
  • 44.
    Virtual Chassis Fabricトラフィックフローについて • Multi Path Forwarding – ユニキャストパケット転送は、基本的には、SPFアルゴリズムに従います。 ただし、Shortest Pathのみを使用するわけではなく、Egress NodeへのPathが 複数あった場合には、そのPathの帯域に応じた割り振りを行い、全てのPathを使用します。 Ingress Egress Node1からNode5へのパケット転送において、1⇒2 or 3への 帯域は同じだが、2⇒5は40G, 3⇒5は20Gとなるため、 Ingress Node1は、Node2へNode3に比較して2倍のトラフィ ックを送出する。
  • 45.
    Mixed VCF構成時の各種テーブルサイズについて • MixedVCFを構成する際には、各テーブルの最大値は、そのVCFのメンバーのうち、 一番テーブルサイズの小さい物のサイズがVCF全体に適用されます。 MAC ARP Unicast Route IPv6 Unicast Route Host Route QFX5100 288000 48000 128000 64000 208000 QFX3500 128000 8000 16000 8000 8000 EX4300 64000 64000 16000 4000 32000 16K (L3 Host) 56K (L3 Host) 88K (L3 Host) 120K (L3 Host) 128K (LPM)16K (L3 Host) 288k (L2Mac) 224K (L2 Mac) 160K (L2 Mac) 96K (L2 Mac) 32K (L2 MAC) 16K (LPM) 16K (LPM) 16K (LPM) 16K (LPM) Profile 1. l2-heavy-one Profile 2. l2-heavy-two Profile 3. l2-heavy-three (Default) Profile 4. l3-heavy Profile 5. LPM-heavy • QFX5100のUnified Forwarding Tableを使用し、VCFとしてのPFEの収容プロファイルを 変更することも可能ですが、Mixed VCFではサポートされません。
  • 46.
    QFX5100-24QのPort Mode QFX5100-24Qには以下のように、いくつかの動作モードがあります。 モードの変更にはPFEの再起動を必要とするため、サービスイン前によく検討し、 決定しておくことをお勧めします。 • DefaultMode • オンボードポート: 全てBreakout可能 • アップリンクモジュールポート: 4x40G PICのみサポート, Breakout不可 • 104 Port Mode • オンボードポート: 全てのポートがデフォルトでBreakoutされ、変更できない • アップリンクモジュールポート: スロット1において、4x40G PICのポート0, 2のみ使用可能(Breakout) • VC/VCFでの使用は不可 • Non-Oversubscribed Mode • オンボードポート: 全てBreakout可能 • アップリンクモジュール: 使用不可 • Flexi-PIC Mode • オンボードポート: ポート 4-23のみBreakout可能 • アップリンクモジュールポート: Breakout不可, 8x10G PICをサポート
  • 47.
    8x10GbE Module onQFX5100-24Q QFX5100-24Qでネイティブの10GbEポートを収容したい場合、8x10G PICを使用 することができます。ただし、8x10G PICはFlexi-PIC Modeでのみサポートされる ため、使用する予定があるのであれば、事前にモードを変更しておくことを推奨し ます。 • Flexi-PIC Mode • オンボードポート: ポート 4-23のみBreakout可能 • アップリンクモジュールポート: Breakout不可能。 8x10G PICをサポート
  • 48.
    Virtual Chassis FabricNSSUについて -1 管理者がVCFに対してNSSUサービスを利用してバージョンアップを実施した場合、以下の順序で 各メンバーに新しいバージョンが反映されます。 コマンド投入後は、バージョンアップ作業はシステムにより自動的に行われるため制御はできま せん。 request system software nonstop-upgrade /var/tmp/<package> Master RE Backup RE FPC0 FPC1 ←最初にリブート FPC2 2番目にリブート FPC4 4番目にリブート FPC3 3番目にリブート FPC5 5番目にリブート 最後にBackup REに New Masterを引き継ぎながらリブート ↓ Step.0 管理者がNSSUコマンドを発行 Step.1 新OSイメージを全メンバーにコピー Step.2 Backup REがリブート Step.3 Linecardが若番から順にリブート Step.4 Master REがリブート ※この際、Backup REがNew Masterを引き継ぎ、 Old Masterが新OSで立ち上がってきたらシステム全体のバージョ ンUpが完了する ※ NSSUを実行する場合、preprovisioningされたvirtual chassisの設定上、Routing-Engineは2つ以上設定できません。 4つのSpineが存在する構成の場合、NSSUを行う前に不要なRouting-EngineはLinecardに変更する必要があります。
  • 49.
    Virtual Chassis FabricNSSUについて -2 NSSUによるバージョンアップ完了までの時間短縮の手法として、オプションとしてラインカード のNSSUグルーピングが設定可能です。これにより各ラインカードがリブートを行う総計時間が短 縮されます。 Step.0 管理者がNSSUコマンドを発行 Step.1 新OSイメージを全メンバーにコピー Step.2 Backup REがリブート Step.3 若番のNSSUグループから順にリブート Step.4 Master REがリブート Master RE 最後にBackup REに New Masterを引き継ぎながらリブート ↓ FPC0 Backup RE FPC1 ←最初にリブート NSSU Group1 NSSU Group1NSSU Group2 NSSU Group2 NSSU Group2 ↑ 2番目にリブート (Groupごと同時) ↑ 3番目にリブート (Groupごと同時) ※この例で例えるとFPC1とFPC5を同一NSSUグループに投入するとNSSU時にVCがSplitして障害となるので注意 root@Juniper# show chassis nssu upgrade-group G1 { fpcs [ 2 4 ]; } upgrade-group G2 { fpcs [ 3 5 ]; FPC2 FPC4FPC3 FPC5 ↑ 2番目にリブート (Groupごと同時) ↑ 3番目にリブート (Groupごと同時)
  • 50.
    Virtual Chassis FabricLocal Biasについて LAGのハッシングによる送出インターフェイス選択時に、VCバックプレーンへの無駄なパケット の流入を防ぐためにLocal Biasというオプションを設定可能です。この設定によりラインカードの ローカルに送出インターフェイスがある場合には、ハッシュによるアウトプットインターフェイ スの選択よりも、ローカル側を優先する動作を行います。これによりVCバックプレーン帯域の浪 費を保護します。 set interfaces ae0 aggregated-ether-options local-bias AEメンバーの送出ポートを ハッシュで決めるためフローによっては パケットがVCバックプレーンを 渡ってこちら側のPortから送出される #Local Biasを設定しない場合 AE0 VCのラインカードからみてローカルポートか ら送出されうる通信には、AEメンバーのハッ シュによる送出ポートの選択を行わない これによるVCバックプレーンの無駄な浪費に よる帯域圧迫を削減 #Local Biasを設定した場合 AE0
  • 51.
    Virtual Chassis Fabricに関するドキュメント 以下にVirtualChassis Fabricを解説する各種資料がありますので、必要に応じてご参照ください。 ・Links http://www.juniper.net/techpubs/en_US/release-independent/junos/information- products/pathway-pages/hardware/qfx-series/VCF.pdf https://www.juniper.net/techpubs/en_US/junos14.1/topics/concept/virtual-chassis-ex- qfx-series-mixed-understanding.html ・Whitepaper http://www.juniper.net/assets/us/en/local/pdf/whitepapers/2000571-en.pdf
  • 52.