SlideShare a Scribd company logo
SRX5k for Cloud Builders
〜急激に変化するサービス要件に迅速に対応せよ〜
JUN,2015
Macnica Networks Corp.
Juniper Networks, K.K.
Legal Disclaimer
本資料に記載されている機能や構成、ロードマップ情報などは、
資料作成時点におけるジュニパーネットワークスの仕様や予定を示したもの
であり、事前の通告無しに内容が変更されることがあります。
本資料は技術情報の提供を目的としたものであり、機器、機器の機能、
サービスなどに関して保証を行うものではありませんので、ご注意ください。
はじめに
• この資料の目的は、ジュニパーのデータセンター向けサービスゲートウェイ
であるSRX5000シリーズにおける特徴である“サービス稼働中に様々な拡張
を行える”という利点をいくつかの想定構成にて動作確認を行い、サービスへ
の影響度と効果を明らかにしつつ情報を共有することにあります。
検証はマクニカネットワークスとジュニパーとの共同で行いました。
• 出来る限り実際のUse Caseにおける環境を想定し検証を行いましたが、現実
にはお客さま毎のアプリケーションを踏まえた想定環境での事前検証が必須
となりますので、本資料はあくまで参考資料の位置付けになります。
すべての動作を保証するものではないことご留意頂けます様お願い致します。
Agenda
• 評価環境と想定シナリオについて
• Base-Lineの測定
• サービス拡張シナリオ-1 :
Network Bandwidth Upgrade(RETHとAEの拡張による帯域増強)
• サービス拡張シナリオ-2 :
In-Service Hardware Upgrade(Dynamic Service Architectureの証明)
• サービス拡張シナリオ-3 :
Low Latency Service(Express Pathによるサービスの低遅延化)
• まとめ
評価環境と想定シナリオについて
ジュニパーの提唱するCloud DCデザイン・アーキテクチャ
DC Edge
Router
Service Gateway
FC StorageServers NAS
Ethernet /IP Fabric
The Internet Datacenter
Interconnect
North/South & East/West Traffic w/o service
East/West Traffic w service
North/South Traffic w service
Evaluation Test Diagram
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
Breaking Point
(Traffic Generator)
10
G
DC Edge Router
(QFX5100)
10
G
30
G
30
G
10G*3 10G*3 10G*1 10G*1
40
G
40
G
40
G
40
G
SRX5k Test Configuration Overview
Breaking Point
(Traffic Generator)
XX
G
OSPF/BGP
Graceful Restart
XX
G
XX
G
XX
G
10G*3 10G*3 10G*1 10G*1
Zone
BLUE
Zone
RED
Zone
PURPLE
Zone
MGMT
SNMP/Syslog Server
North/South Traffic w service
From-Zone BLUE To-Zone PURPLE*1000 FW
Policies + Logging
East/West Traffic w service
From-Zone BLUE To-Zone RED *1000 FW Policies
+ Logging
Session Init Log
root@srx5600node0> show chassis hardware
node0:
--------------------------------------------------------------------------
Hardware inventory:
Item Version Part number Serial number Description
Chassis JN124E56CAGB SRX5600
Midplane REV 01 710-024804 ACRD7518 SRX5600 Midplane
FPM Board REV 01 760-058098 CADR6914 Front Panel Display
PEM 1 Rev 03 740-034701 QCS15030902F PS 1.4-2.6kW; 90-264V AC in
PEM 2 Rev 03 740-034701 QCS150309052 PS 1.4-2.6kW; 90-264V AC in
Routing Engine 0 REV 02 740-056658 9009220567 SRX5k RE-1800X4
CB 0 REV 01 750-056587 CADW3399 SRX5k SCB II
FPC 0 REV 18 750-044175 CABE7913 SRX5k SPC II
CPU BUILTIN BUILTIN SRX5k DPC PPC
PIC 0 BUILTIN BUILTIN SPU Cp
PIC 1 BUILTIN BUILTIN SPU Flow
PIC 2 BUILTIN BUILTIN SPU Flow
PIC 3 BUILTIN BUILTIN SPU Flow
FPC 5 REV 14 750-043157 CADX0824 SRX5k IOC II
CPU REV 05 711-043360 CADY8332 SRX5k MPC PMB
MIC 0 REV 08 750-049487 CADX2231 2x 40GE QSFP+
PIC 0 BUILTIN BUILTIN 2x 40GE QSFP+
Xcvr 0 REV 01 740-032986 QB300176 QSFP+-40G-SR4
Xcvr 1 REV 01 740-032986 QB120851 QSFP+-40G-SR4
MIC 1 REV 07 750-049488 CADY7577 10x 10GE SFP+
PIC 2 BUILTIN BUILTIN 10x 10GE SFP+
Xcvr 0 REV 01 740-032276 APF11130010K8E SFP+-10G-ACU3M
Xcvr 8 REV 01 740-030077 APF11040026935 SFP+-10G-CU3M
Xcvr 9 REV 01 740-030077 APF11040026942 SFP+-10G-CU3M
Fan Tray Enhanced Fan Tray
(snip)
root@srx5600node0> show version
node0:
--------------------------------------------------------------------------
Hostname: srx5600node0
Model: srx5600
JUNOS Software Release [12.3X48-D10.3]
(snip)
使用機材:SRX5600 & JUNOS12.3X48-D10
使用機材:Breaking Point FireStorm
@マクニカネットワークス・新横浜検証センター
Breaking Point FireStorm
Hardware
• 4RU、3スロット
• 10G 4port Network Processor x 2
Software
• Software Version 3.4.2
想定シナリオ-1:Network Bandwidth Upgrade
DC Edge
Router
Service Gateway
FC StorageServers NAS
Ethernet /IP Fabric
The Internet Datacenter
Interconnect
North/South & East/West Traffic w/o service
East/West Traffic w service
North/South Traffic w service
ネットワーク帯域が逼迫してきたので拡張しなくては
ならない。サービス稼働中に。
想定シナリオ-2:In-Service Hardware Upgrade
DC Edge
Router
Service Gateway
FC StorageServers NAS
Ethernet /IP Fabric
The Internet Datacenter
Interconnect
North/South & East/West Traffic w/o service
East/West Traffic w service
North/South Traffic w service
サービスゲートウェイの処理負荷が逼迫してきたので
拡張しなくてはならない。サービス稼働中に。
想定シナリオ-3:Low Latency Service
DC Edge
Router
Service Gateway
FC StorageServers NAS
Ethernet /IP Fabric
The Internet Datacenter
Interconnect
North/South & East/West Traffic w/o service
East/West Traffic w service
North/South Traffic w service
新しいサービスでLow Latencyな通信要件を必要とする
システムを収容しなくてはならない。サービス稼働中に。
Base-Lineの測定
Base-Line
まず最初に、稼働中のサービス拡張へのインパクトを理解する前提のために、
以下の点について解説します。
• SRX5k アーキテクチャ
• SRX5k のChassis Clusterとスロットナンバリングについて
• SRX5k 負荷状態の確認方法について
• パフォーマンス測定方法
• パフォーマンス測定結果
• ダウンタイム測定方法
• 各所ダウンタイム測定結果
• Graceful Restartについて
SRX5kのコンポーネント
SRX5kのハードウェアは主に
以下4つのコンポーネントから構成されます。
• IOC(I/O・カード)
I/Oインターフェイスの選択を提供します。今回は40GbE*2、
10GbE*10のMICカード構成で試験を行っています。
• SPC(サービス・プロセッシング・カード)
SRX5kの筋肉でもあり、心臓部分でもあるパケットフォワーディングエ
ンジンを搭載するカードとなります。ここで各種サービスを提供しなが
らパケットの転送を行います。詳細は後の頁で解説します。
• SCB(スイッチング・コントロール・ボード)
IOCとSPCを結ぶスイッチング・ファブリックカードです。今回はライ
ンカード毎に120Gbpsのバックプレーン帯域を提供するSCBEという
ファブリックカードを使用しています。
真ん中にビルトインのREを挿入する部分があります。
• RE(ルーティング・エンジン)
システム全体をコントロールする頭脳部分です。ここでJUNOSが稼働し
ています。今回はRE-1800X4と呼ばれる最新のREで試験を行っていま
す。
SPU
SRX5kのコンポーネント : SPCについて-1
SRX5000シリーズの現行SPC “SRX5K-4-15-320” には、4つのSPU(サービス・プロセッシ
ング・ユニット)と呼ばれるネットワークプロセッサーが搭載されています。
SPUは、Core毎に4 threadを実行する 8つの eight-core プロセッサーから構成されており、
各SPUが並列に各種サービスを実行する仕組みになっています。
SPC
SPU
SPU
SPU
SPU
0
1
2
3
• Advanced Routing
• Stateful Firewalling
• IDP/IPS
• NAT
• ALG
• VPN
• Some Screens
• Logging
Etc…
“SRX5K-4-15-320”
SPC
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
0
1
2
3
SRX5kのコンポーネント : SPCについて-2
またSRX5kが起動する際、最も若番のSPC内の若番のSPUがCP(Central Point)と呼ばれる役
目を担うこととなり、このCPが複数のSPUsに対してFlow処理の割り当てを行うロードバラン
サーとして動作します。この仕組みによりSRX5kにSPCが増設されるたびに処理能力を向上さ
せることが可能となっています。
SPC
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(CP)
0
1
2
3
“SRX5K-4-15-320”がシステムに1枚の場合
(1つのCPが、3つのFlowSPU間で負荷分散)
SPU
(Flow)
SPU
(CP)
SPU
(Flow)
SPU
(Flow)
SPC
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(CP)
0
1
2
3
SPU
(Flow)
SPU
(CP)
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
SPU
(Flow)
“SRX5K-4-15-320”がシステムに2枚の場合
(1つのCPが、7つのFlowSPU間で負荷分散)
SRX5k Packet Flow-1 : 新規フローの1stパケット
IOC
/40 /10 G/1G
MIC
/40 /10 G/1G
MIC
XF
LU
LU
SCB SPC
SPU
(Flow)
LU
LU
XM SPU
(Flow)
SPU
(Flow)
SPU
(CP)
100
100
1. 新規パケットを受信
フローのルックアップを行い、No Match(New Session)と判断
2. パケットを CPへ転送
3. CP がパケットを転送するSPUを選択し、SPUがセッションをセットアップ
4. パケットがEgress Portに転送される
1
3
4
RE
2
SRX5k Packet Flow-2 : セッションセットアップ
IOC
/40 /10 G/1G
MIC
/40 /10 G/1G
MIC
XF
LU
LU
SCB SPC
SPU
(Flow)
LU
LU
XM SPU
(Flow)
SPU
(Flow)
SPU
(CP)
RE
100
100
1. SPUがSession Setup MessageをCPに送信
2. SPUがSession Setup MessageをIOCに送信
1
2
SRX5k Packet Flow-3 : Fastパス・プロセッシング
IOC
/40 /10 G/1G
MIC
/40 /10 G/1G
MIC
XF
LU
LU
SCB SPC
SPU
(Flow)
LU
LU
XM SPU
(Flow)
SPU
(Flow)
SPU
(CP)
100
100
1. パケットを受信
フローのルックアップを行い、セッション情報にMatch
パケットを処理を担当するSPUに転送
2. SPUはFast Path Processing(セキュリティなどの定義されたサービス)を実施
3. パケットがEgress I/Oから送出される
1
2
3
RE
RG0
RG1+
SRX5k Chassis Clusterとその構成要素
SRXは以下の要素を踏まえてChassis Cluster
(CC)を構成することで冗長システム化するこ
とが可能です。
ジュニパーのEX/QFXスイッチにおけるVirtual
Chassisなどと同様、CC化されたSRXは1台の仮
想シャーシ型システムとして動作し冗長性を提
供することが可能となります。
• Control Link
二台の物理シャーシ間でコントロールプレーンの伝達を行う。
• Fabric Link
二台の物理シャーシ間でセッション情報のSyncを行う。必要に応じて
(A/A構成時など)パケットの転送も行う
• RETH(Redundant Ethernet)
外部ネットワークと接続するためのA/S冗長リンク。
• RG(Redundant Group)
切り替わり範囲を指定する冗長グループ。
RG0はコントロールプレーン(RE)のグループを示し、
RG1〜はデータプレーン(RETH)のグループを示す。
Fabric Link
Control Link
RETH
Master RE
Node 1Node 0
Backup RE
SRX5k Chassis ClusterとI/Oスロット・ナンバリング
SRXがChassis Cluster(CC)化されると一台の
システムとしてみなされるため、Node1側のイ
ンターフェイスのスロットナンバリングが右図
のように変化します。
右図の例でいうと、
et-2/1/0とet-14/1/0でReth0を構成している、
というイメージになります。
Master RE
Node 1Node 0
Backup RE
RETH0
Slot0
Slot1 Slot11 Slot12 Slot23
Base-Lineパフォーマンス測定
• SRX5600をChassis Cluster構成とし、East/Westトラフィックで10Gbps、
North/Southトラフィックで5Gbpsのアプリケーション負荷をかけて機器の
状態を確認する。
• SRXを経由するする全ての通信に対して、1000づつのFirewallポリシーを設
定し、Session InitにおけるFirewall Loggingを取得している。
• Breaking Pointからのアプリケーションは以下を使用。
• Application Simulator x 4 units
• Protocol TCP
• HTTP GET [Contents size 10k] x 20 request / TCP connection
• mss 1460 bytes
{primary:node0}
root@srx5600node0> show chassis routing-engine
node0:
--------------------------------------------------------------------------
Routing Engine status:
Slot 0:
Current state Master
Election priority Master (default)
Temperature 34 degrees C / 93 degrees F
CPU temperature 31 degrees C / 87 degrees F
DRAM 3313 MB (16384 MB installed)
Memory utilization 14 percent
CPU utilization:
User 0 percent
Background 0 percent
Kernel 3 percent
Interrupt 0 percent
Idle 97 percent
Model RE-S-1800x4
Serial ID 9009220567
Start time 2015-05-13 01:52:09 UTC
Uptime 34 minutes, 26 seconds
Last reboot reason 0x1:power cycle/failure
Load averages: 1 minute 5 minute 15 minute
0.00 0.01 0.06
JUNIPER-MIB::jnxOperatingCPU.9
(REでのCPU Utilization取得MIB)
SRX5kの管理・確認コマンドと該当するMIB(RE)
SRX5kのコントロールプレーン負荷を確認するには、
“show chassis routing-engine”コマンドで確認します。
{primary:node0}
root@srx5600node0> show security monitoring fpc 0
node0:
--------------------------------------------------------------------------
FPC 0
PIC 0
CPU utilization : 0 %
Memory utilization : 10 %
Current flow session : 0
Current flow session IPv4: 0
Current flow session IPv6: 0
Max flow session : 0
Current CP session : 5
Current CP session IPv4: 5
Current CP session IPv6: 0
Max CP session : 104857600
Total Session Creation Per Second (for last 96 seconds on average): 0
IPv4 Session Creation Per Second (for last 96 seconds on average): 0
IPv6 Session Creation Per Second (for last 96 seconds on average): 0
PIC 1
CPU utilization : 0 %
Memory utilization : 4 %
Current flow session : 3
Current flow session IPv4: 3
Current flow session IPv6: 0
Max flow session : 4194304
Current CP session : 0
Current CP session IPv4: 0
Current CP session IPv6: 0
Max CP session : 0
...
(snip)
JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCPUUsage
(SPU毎のCPU Utilization取得MIB)
JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCurrentCPSession
(システム全体=CPでの処理Session数取得MIB)
JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCurrentFlowSession
(SPU毎の処理Session数取得MIB)
SRX5kの管理・確認コマンドと該当するMIB(SPC/SPU)
SRX5kのデータプレーン負荷を確認するには、
“show security monitoring fpc X”コマンドで確認します。
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession
jnxJsSPUMonitoringCurrentFlowSession.0 = 0
jnxJsSPUMonitoringCurrentFlowSession.1 = 375686
jnxJsSPUMonitoringCurrentFlowSession.2 = 369767
jnxJsSPUMonitoringCurrentFlowSession.3 = 371301
jnxJsSPUMonitoringCurrentFlowSession.24 = 0
jnxJsSPUMonitoringCurrentFlowSession.25 = 381381
jnxJsSPUMonitoringCurrentFlowSession.26 = 376222
jnxJsSPUMonitoringCurrentFlowSession.27 = 574778
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession
jnxJsSPUMonitoringCurrentCPSession.0 = 1127139
jnxJsSPUMonitoringCurrentCPSession.1 = 0
jnxJsSPUMonitoringCurrentCPSession.2 = 0
jnxJsSPUMonitoringCurrentCPSession.3 = 0
jnxJsSPUMonitoringCurrentCPSession.24 = 1330061
jnxJsSPUMonitoringCurrentCPSession.25 = 0
jnxJsSPUMonitoringCurrentCPSession.26 = 0
jnxJsSPUMonitoringCurrentCPSession.27 = 0
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = 1
jnxJsSPUMonitoringCPUUsage.1 = 48
jnxJsSPUMonitoringCPUUsage.2 = 48
jnxJsSPUMonitoringCPUUsage.3 = 48
jnxJsSPUMonitoringCPUUsage.24 = 0
jnxJsSPUMonitoringCPUUsage.25 = 0
jnxJsSPUMonitoringCPUUsage.26 = 1
jnxJsSPUMonitoringCPUUsage.27 = 1
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 3
jnxOperatingCPU.9.3.0.0 = 3
SRX5kの管理・確認コマンドと数字の見方
Node0の各SPUで保持しているSessionの数
Node1の各SPUで保持しているSessionの数(冗長用)
Node0のシステム全体(CP)で保持しているSessionの数
Node1のシステム全体(CP)で保持しているSessionの数(冗長用)
システムのデータプレーン負荷の状況:CC Node0
(この例ではFast Pathプロセッシングでデータを転送している負荷で48%)
システムのデータプレーン負荷の状況:CC Node1
(こちらは冗長によるスタンバイ側なので、Failover用にセッションのコピーを
しているだけ、なので1%くらい)
システムのコントロールプレーン負荷の状況
SRX5k Baseline Performance-1
40
G
40
G
Breaking Point
(Traffic Generator)
5
G
5
G
10
G
10
G
10G*3 10G*3 10G*1 10G*1
East/West
10G
North/South
5G
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
確認項目:
約15GbpsのトラフィックをSRX5600-CCに印加し、
各コンポーネントの状態情報をMIBで取得し状況を確認する
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession
jnxJsSPUMonitoringCurrentFlowSession.0 = 0
jnxJsSPUMonitoringCurrentFlowSession.1 = 1546596
jnxJsSPUMonitoringCurrentFlowSession.2 = 1527601
jnxJsSPUMonitoringCurrentFlowSession.3 = 1523715
jnxJsSPUMonitoringCurrentFlowSession.24 = 0
jnxJsSPUMonitoringCurrentFlowSession.25 = 1544386
jnxJsSPUMonitoringCurrentFlowSession.26 = 1526634
jnxJsSPUMonitoringCurrentFlowSession.27 = 1706677
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession
jnxJsSPUMonitoringCurrentCPSession.0 = 4597263
jnxJsSPUMonitoringCurrentCPSession.1 = 0
jnxJsSPUMonitoringCurrentCPSession.2 = 0
jnxJsSPUMonitoringCurrentCPSession.3 = 0
jnxJsSPUMonitoringCurrentCPSession.24 = 4781204
jnxJsSPUMonitoringCurrentCPSession.25 = 0
jnxJsSPUMonitoringCurrentCPSession.26 = 0
jnxJsSPUMonitoringCurrentCPSession.27 = 0
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = 1
jnxJsSPUMonitoringCPUUsage.1 = 83
jnxJsSPUMonitoringCPUUsage.2 = 84
jnxJsSPUMonitoringCPUUsage.3 = 83
jnxJsSPUMonitoringCPUUsage.24 = 0
jnxJsSPUMonitoringCPUUsage.25 = 2
jnxJsSPUMonitoringCPUUsage.26 = 2
jnxJsSPUMonitoringCPUUsage.27 = 2
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 3
jnxOperatingCPU.9.3.0.0 = 3
SRX5k Baseline Performance-1:15Gbps
システムのデータプレーン負荷としては約83%
(Fast Pathプロセッシングでデータを転送している負荷が83%)
システムのコントロールプレーン負荷としては約3%
(SNIP)
Sorry, this is Trailer version.
SRX5k Baseline Performance-2
40
G
40
G
Breaking Point
(Traffic Generator)
5
G
5
G
20
G
20
G
10G*3 10G*3 10G*1 10G*1
East/West
20G
North/South
5G
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
確認項目:
印加するトラフィックを15Gbpsから25Gbpsへ上げて、
各コンポーネントの状態情報がどのように変化するかを確認する
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession
jnxJsSPUMonitoringCurrentFlowSession.0 = 0
jnxJsSPUMonitoringCurrentFlowSession.1 = 1577179
jnxJsSPUMonitoringCurrentFlowSession.2 = 1559468
jnxJsSPUMonitoringCurrentFlowSession.3 = 1559371
jnxJsSPUMonitoringCurrentFlowSession.24 = 0
jnxJsSPUMonitoringCurrentFlowSession.25 = 1580839
jnxJsSPUMonitoringCurrentFlowSession.26 = 1568506
jnxJsSPUMonitoringCurrentFlowSession.27 = 1767131
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession
jnxJsSPUMonitoringCurrentCPSession.0 = 4696755
jnxJsSPUMonitoringCurrentCPSession.1 = 0
jnxJsSPUMonitoringCurrentCPSession.2 = 0
jnxJsSPUMonitoringCurrentCPSession.3 = 0
jnxJsSPUMonitoringCurrentCPSession.24 = 4926937
jnxJsSPUMonitoringCurrentCPSession.25 = 0
jnxJsSPUMonitoringCurrentCPSession.26 = 0
jnxJsSPUMonitoringCurrentCPSession.27 = 0
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = 1
jnxJsSPUMonitoringCPUUsage.1 = 93
jnxJsSPUMonitoringCPUUsage.2 = 93
jnxJsSPUMonitoringCPUUsage.3 = 93
jnxJsSPUMonitoringCPUUsage.24 = 1
jnxJsSPUMonitoringCPUUsage.25 = 3
jnxJsSPUMonitoringCPUUsage.26 = 2
jnxJsSPUMonitoringCPUUsage.27 = 2
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 4
jnxOperatingCPU.9.3.0.0 = 3
SRX5k Baseline Performance-2:25Gbps
システムのコントロールプレーン負荷としては約4%
※データプレーンのCPUが限界近くまで高騰していたとしても、
コントロールプレーンのCPUは低い位置に留まっているので
システムとしては安定していることに注目!
システムのデータプレーン負荷としては約93%
(Fast Pathプロセッシングでデータを転送している負荷が93%)
※この環境(SPC1枚)でこれ以上の負荷をかけるとセッションが
ドロップし始めた。コントロールプレーンの使用率は3〜4%程度とStableなので
データプレーンの性能限界である、と理解することができる。
(SNIP)
Sorry, this is Trailer version.
Base-Lineダウンタイム測定
• SRX5600をChassis Clusterの構成とし、East/Westトラフィック、
North/SouthトラフィックとしてそれぞれUDPショートパケット(64byte)で
秒間100,000パケット送信した状態で、各種障害・メンテナンスアクションを
行ってみてドロップするパケット数をカウントする。
• SRXを経由するする全ての通信に対して、1000づつのFirewallポリシーを設
定し、Session InitにおけるFirewall Loggingを取得している。
• Breaking Pointからのアプリケーションは以下を使用。
• Routing Robot x 4 units
• Protocol UDP
• packet size 64 bytes
Base-Lineダウンタイム測定
40
G
40
G
Breaking Point
(Traffic Generator)
10G*3 10G*3 10G*1 10G*1
East/West
100000pps
North/South
100000pps
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
確認項目:
UDPのショートパケットを100,000pps印加し、
各ポイントでのアクションにおけるパケットドロップの有無、及びダウンタイムを確認する
Ethernet Fabric
(QFX5100 Virtual Chassis)
Service Gateway
(SRX5600 Chassis Cluster)
Base-Lineダウンタイム測定ポイント・アクション
40
G
40
G
Breaking Point
(Traffic Generator)
10G*3 10G*3 10G*1 10G*1
DC Edge Router
(QFX5100)
No. Action Event
1 Reth Member Link Down/Up
2 Control Link Down/Up
3 Fabric Link Down/Up
4 Fabric Link*2 Down/Up
5 Redundancy Group 0 Manual Failover
(+OSPF/BGP Graceful Restart)
6 Redundancy Group 1 Failover
7 Chassis 0 Power Down/Up
(RG0,1 failover at same time)
8 Chassis 1 Power Down/Up
9 In-Service Software Upgrade
1
2
3
4
5
6
7
8
9
Base-Lineダウンタイム測定ポイント・アクション解説
No. Action Event Desicription Expectation
1 Reth Member Link Down/Up Rethを構成するMember InterfaceのActive側を抜線
する
CCのFailoverが発生して瞬断で通信が復旧する。
2 Control Link Down/Up Control Linkを抜線する CCの保護機能によりSecondary側のNodeがDisable
Stateとなる。通信には影響なし。
3 Fabric Link Down/Up Fabric Linkの片側を抜線する この試験ではFabric Linkが冗長されているため何も起
こらず。通信には影響なし。
4 Fabric Link*2 Down/Up Fabric Linkを2本とも抜線する CC間のセッション同期がされなくなる。通信には影響
なし。
5 Redundancy Group 0 Manual Failover
(+OSPF/BGP Graceful Restart)
CLIからREのMaster・Backupを切り替える この試験構成ではNorth/Southトラフィックの宛先
ルートをOSPF/BGPで受信しているため、通常であれ
ば通信断が発生するが、Graceful Restartの設定によ
りルートが保持されて、通信には影響がでない。
6 Redundancy Group 1 Failover CLIからRethのメンバーリンクのA/Sを切り替える CCのFailoverが発生して瞬断で通信が復旧する。
7 Chassis 0 Power Down/Up
(RG0,1 failover at same time)
RG0,1共にPrimaryを保持するNode0の電源をシャッ
トダウンする
RG0,1共に同時にNode1へ遷移するので、多少のダウ
ンタイムの後に通信が復旧する。
8 Chassis 1 Power Down/Up RG0,1共にSecondary を保持するNode1の電源を
シャットダウンする
何も起こらず。通信には影響なし。
9 In-Service Software Upgrade CLIからISSUを使用してソフトウェアのバージョンを
アップする
多少のダウンタイムの後にソフトウェアのバージョン
アップが完了し通信が復旧する。
Base-Lineダウンタイム測定結果
No. Action Event Down Time @Down Down Time @Up OK/NG Log
1 Reth Member Link Down/Up 0.22 sec 0.37sec OK BackupSlide 1-1
2 Control Link Down/Up 0 sec 0 sec OK BackupSlide 1-2
3 Fabric Link Down/Up 0 sec 0 sec OK BackupSlide 1-3
4 Fabric Link*2 Down/Up 0 sec 0 sec OK BackupSlide 1-4
5 Redundancy Group 0 Manual Failover
(+OSPF/BGP Graceful Restart)
0 sec - OK BackupSlide 1-5
6 Redundancy Group 1 Failover 0.93 sec 0.5 sec OK BackupSlide 1-6
7 Chassis 0 Power Down/Up
(RG0,1 failover at same time)
0.62 sec 0.42 sec OK BackupSlide 1-7
8 Chassis 1 Power Down/Up 0 sec 0 sec OK BackupSlide 1-8
9 In-Service Software Upgrade 1.74 sec - OK BackupSlide 1-9
(SNIP)
Sorry, this is Trailer version.
UDPショートパケットによるダウンタイム試験でCC切り替わり時における約1秒前後のパケットロ
スは、現実のTCP通信においてはTCPの再送機能により一時的にトランザクションの再送がなされ
るのみであり、実際のアプリケーション通信にはほとんど影響しない。
パケットロス アプリケーションのトランザクションには影響なし
Base-Lineダウンタイム トラフィック影響
(SNIP)
Sorry, this is Trailer version.
Protocol Graceful Restartについて
今回の試験構成では、North/Southトラフィックに関してはOSPF/BGPによって学習した経
路宛の通信構成としています。
この場合にSRX5k-CCのコントロールプレーン・フェイルオーバーをする際のダウンタイム
を最小にするためにはSRX側でProtocol Graceful Restartの設定をおこなう必要があります。
(JUNOSではDefaultでGraceful Restart Helper機能が動作しているため、QFX側では特別
な設定の必要はなし。)
※参考までにGraceful RestartをDisableにした状態でテスト項番.5を実施したところ、
ダウンタイムが0秒→約10秒という結果に変化しました。
OSPF/BGP
Service Gateway
(SRX5600 Chassis Cluster)
DC Edge Router
(QFX5100)
DG0: Primary
DG0: Secondary
Failover
Protocol Graceful Restart設定
{primary:node0}[edit]
root@srx5600node0# set routing-options graceful-restart
root@srx5600node0# set protocols bgp graceful-restart
root@srx5600node0# set protocols ospf graceful-restart restart-duration 190
root@srx5600node0# set protocols ospf graceful-restart notify-duration 40
サービス拡張シナリオ-1
〜Network Bandwidth Upgrade〜
(RETHとAEの拡張による帯域増強)
サービス拡張シナリオ-1:
サービスゲートウェイのネットワーク帯域増強
Service Gateway
The Internet Datacenter
Interconnect
データセンターアーキテクチャに於いてサービス
ゲートウェイをIn-Line型ではなくOne-Arm型で
デザインすることのメリットとして、
• サービス宛のトラフィックとサービスを必要と
しないトラフィックの通信経路を柔軟にデザイ
ンできる
• サービス宛のトラフィック容量を増加したい場
合、LAGの拡張だけで簡単に増強が可能
という点が挙げられます。
サービス拡張シナリオ-1ではSRX5k-CCにおける
LAG増強時におけるサービストラフィックへのイ
ンパクトを確認します。
サービス宛ネットワーク帯域という観点では、
管理者はここの使用率傾向をみておくだけで
増強すべきタイミングを把握することが可能
40
G
40
G
サービス拡張シナリオ1:確認項目
Breaking Point
(Traffic Generator)
5
G
5
G
10
G
10
G
10G*3 10G*3 10G*1 10G*1
East/West
10G
North/South
5G 40
G
40
G
確認項目:
約15Gbpsのトラフィックを印加中のSRX5600-CCにおいて
40G(40G*2)→80G(40G*4)へのLAGの増強を行う際のサービスインパクトを測定する
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
Chassis ClusterとVC間のReth/AEについて
Ethernet Fabric
(QFX5100 Virtual Chassis)
Service Gateway
(SRX5600 Chassis Cluster)
RETH0
AE0
AE1
スイッチとSRX間のリンクは仮に初期導入時には1本だとしても、将来拡張時のために
最初からスイッチ側をLAGで組んでおくと便利です。
CCのRETHとVCのAEを繋げる場合の考え方は、以下のようにRETH1本に対して、
対向のスイッチからは、AE0とAE1の2本のLAGで接続する形になります。
この構成でLACPをEnableにすると、VC側はAE0、AE1のLACPは共にActiveとなります。
(ただしSRXのBackup Link側ではARPへの返答は一切行われないので通信は流れない。)
{primary:node0}[edit]
root@srx5600node0# show interfaces reth0 |display set
set interfaces reth0 vlan-tagging
set interfaces reth0 redundant-ether-options redundancy-group 1
set interfaces reth0 redundant-ether-options lacp active
set interfaces reth0 redundant-ether-options lacp periodic slow
set interfaces reth0 unit 100 description public-servers
set interfaces reth0 unit 100 vlan-id 100
...
set interfaces et-5/0/0 gigether-options redundant-parent reth0
set interfaces et-11/0/0 gigether-options redundant-parent reth0
...
(snip)
root@srx5600node0# set interfaces et-5/0/1 gigether-options redundant-parent reth0
root@srx5600node0# set interfaces et-11/0/1 gigether-options redundant-parent reth0
{primary:node0}[edit]
root@srx5600node0# show |compare
[edit interfaces]
+ et-5/0/1 {
+ gigether-options {
+ redundant-parent reth0;
+ }
+ }
+ et-11/0/1 {
+ gigether-options {
+ redundant-parent reth0;
+ }
+ }
{primary:node0}[edit]
root@srx5600node0# commit
もともとのSRX5k側のReth周りの設定
サービス拡張シナリオ1:RETHメンバーリンクの追加
Rethにメンバーリンクを追加する設定
※対向側のQFX-VCのAE0、AE1に対しても該当のインターフェイスを追加する
Ethernet Fabric
(QFX5100 Virtual Chassis)
RETH0
AE0
AE1
VC Seconds: 154 Time: 07:12:37
Interface Link Input bytes (bps) Output bytes (bps)
vcp-255/0/94 Up 754459255781 (37840) 1740598039817 (105910776)
vcp-255/0/95 Up 754796473661 (3800) 1740507771103 (103747624)
et-0/0/96 Up 8120661272810(14836093520) 9078924651190(14836055992)
et-0/0/97 Down 4946543470 (0) 23304064081 (0)
gr-0/0/0 Up 0 (0) 0 (0)
pfh-0/0/0 Up 0 0
xe-0/0/0 Up 167105377313 (207321768) 2228398037067 (6957196304)
xe-0/0/10 Up 2602258830406 (6955225560) 294405787254 (415965712)
xe-0/0/20 Up 342881868509 (416320672) 2423469244320 (6957078704)
xe-0/0/22 Up 163668949402 (0) 1662569789115 (0)
xe-0/0/30 Up 2631571966230 (6954056448) 302839399244 (416194456)
et-1/0/96 Up 16558158617 (0) 33235332184 (640)
pfh-1/0/0 Up 0 0
xe-1/0/0 Up 168281278121 (209100024) 166589117046 (0)
xe-1/0/20 Up 48478234854 (0) 1289028153714 (0)
xe-1/0/30 Up 1832179452368 (0) 162362763586 (152)
xe-1/0/32 Up 1380403611244 (0) 63045625722 (952)
ae0 Up 8570960043651(14836093520) 9362824067411(14836055992)
ae1 Up 21504702087 (0) 56539396265 (640)
ae2 Up 335386655434 (416421792) 2394987154113 (6957196304)
ae3 Down 0 (0) 0 (0)
bme0 Up 0 240166848
bme1 Up 0 0
...
(snip)
サービス拡張シナリオ1:RETHメンバーリンクの追加前
※対向のQFX-VC側のトラフィックカウンター
ae0で約15Gbpsの通信量がカウントされている。
et-0/0/96でも同様の通信量がカウントされている。
VC Seconds: 59 Time: 07:15:49
Interface Link Input bytes (bps) Output bytes (bps)
vcp-255/0/94 Up 568596 (36008) 18594476181 (1969726256)
vcp-255/0/95 Up 77359 (4704) 18523795513 (1922966080)
et-0/0/96 Up 68839732384 (7352206048) 135086502616(14515247648)
et-0/0/97 Up 512 (0) 3646 (1232)
gr-0/0/0 Up 0 (0) 0 (0)
pfh-0/0/0 Up 0 0
xe-0/0/0 Up 1934045234 (203858352) 31036983715 (3444979864)
xe-0/0/10 Up 64407539348 (6907155168) 3754780286 (412885648)
xe-0/0/20 Up 3889930739 (413892016) 62620891559 (6910800424)
xe-0/0/22 Up 0 (0) 2940 (472)
xe-0/0/30 Up 64518850419 (6911536600) 3790273040 (413914624)
et-1/0/96 Up 512 (0) 6014 (1072)
et-1/0/97 Up 68532507767 (7379725536) 2043495848 (220741432)
pfh-1/0/0 Up 0 0
xe-1/0/0 Up 1942307540 (209276240) 30928901956 (3462123304)
xe-1/0/20 Up 0 (0) 2940 (456)
xe-1/0/30 Up 0 (0) 1916 (608)
xe-1/0/32 Up 0 (0) 2315 (1408)
ae0 Up 137372240151(14731931584) 137129998464(14735989080)
ae1 Up 1024 (0) 9660 (2304)
ae2 Up 3876352774 (413134592) 61965885671 (6907103168)
ae3 Down 0 (0) 0 (0)
bme0 Up 0 498480
bme1 Up 0 0
...
(snip)
サービス拡張シナリオ1:RETHメンバーリンクの追加後
※対向のQFX-VC側のトラフィックカウンター
ae0で約15Gbpsの通信量がカウントされている。
et-0/0/96とet-1/0/97(=ae0)で分散されながら
同様の通信量がカウントされている。
サービス拡張シナリオ1:結果
No. Action Event Desicription Expectation
10 Reth Member Link Add Rethを構成するMember Linkに新たにインターフェイ
スを追加し、併せて対向側のQFX-VCのAE0,AE1にも
Member Linkを追加することで、40G*2*2(80G-
Act/80G-Stby)へとネットワーク帯域を拡張する
SRX5kのRethとQFX-VCのAE間でLACPのネゴシエー
ションが行われた後に、ネットワーク帯域が拡張され、
トラフィックがバランスされる。通信には影響なし。
No. Action Event Down Time @Down Down Time @Up OK/NG Log
10 Reth Member Link Add - 0 sec OK BackupSlide 2-1
まとめ:
稼働中のサービスに影響すること無く、サービス・ゲートウェイへのネットワーク帯域の拡張を
行うことが可能であることが確認された。
(SNIP)
Sorry, this is Trailer version.
サービス拡張-2
〜In-Service Hardware Upgrade〜
(Dynamic Service Architectureの証明)
サービス拡張シナリオ-2:
In-Service Hardware Upgrade
(Dynamic Service Architecture)
SRX5000シリーズのDynamic Service Architectureは、収
容するサービスへの需要によって変化するサービスゲート
ウェイへのパフォーマンス・スケール要件にたいして、SPC
の増設だけでシステムとしての拡張性を向上させることが可
能です。
サービス拡張シナリオ-2ではSRX5k-CCにおけるSPC増設時
におけるサービストラフィックへのインパクトを確認します。
SRX5kのDynamic Service Architectureによりシス
テムの負荷状況に応じてSPCを追加するだけで、柔軟
で迅速なシステムアップグレードが可能に
”Pay as you Grow”というコンセプトを実現
増設する毎にリニアにシステムのパフォーマンス
やスケーラビリティを上昇させることが可能な
SRX5kのSPC
40
G
40
G
サービス拡張シナリオ-2:確認項目-1
Breaking Point
(Traffic Generator)
5
G
5
G
20
G
20
G
10G*3 10G*3 10G*1 10G*1
East/West
20G
North/South
5G 40
G
40
G
確認項目:
約25Gbpsのトラフィックを印加中SRX5600-CCにおけるSPCの枚数を
1枚(CCで2枚)から2枚(CCで4枚)へと増強を行う際のサービスインパクトと、
SPCを増設した後の効果を確認する
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
In-Service Hardware Upgrade(ISHU)とは、
• ISHUとは、稼働中のSRXにSPCを追加してキャパシティをダイナミックに増加させる機能
のこと(≒Dynamic Service Architecture)
• 新しく挿入したSPCを有効に活用するためにはNodeのRebootが必要となるため、いわゆる
Hot Insertではない
ただし、Chassis Clusterを構成するSRXにおいてトラフィックへの影響時間は、マニュア
ルによるRG0のFailoverレベルで実施することが可能となる
• 新しいSPCを挿入することのできるスロットには制限があるので(※後述)注意が必要
• HA & ISSU 機能には影響無し
• SPC InsertはChassis Clusterが構成されているSRXでのみサポートされ、Standaloneデバ
イスでは実行できない
1. ここでは、DG0、DG1共にNode 0 (N0) が primary 、
Node 1 (N1) が secondary としてクラスターが構成され
ていると仮定します。
2. SPC Insertを実行する前には、両方のNodeが正常に動作し
ていることを確認する。
※ “show chassis cluster status” にて RG0 と RG+ のPriorityが オペレー
ションミスなどで0や255になっていないことを確認する。(重要!)
3. “request system power off” コマンドにてN1をパワーダ
ウンさせた後、新しい SPCを挿入し、再びN1を起動する。
N1が完全に起動し、PICがOnlineになるまで待ち、“show
chassis fpc pic-status”コマンドで正常状態を確認する。
※ 再度“show chassis cluster status” にて RG0 と RG+ のPriorityが オペ
レーションミスなどで0や255になっていないことを確認する。
Node 0 Node 1
ISHUの手順-1
RG0 (Ctrl)Primary
RG1 (Data)Primary
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
1st SPC 1st SPC
Node 0 Node 1
RG0 (Ctrl)Primary
RG1 (Data)Primary
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
1st SPC 1st SPC
※新しいSPCを挿入しN1を起動
2nd SPC
4. “RG+” をマニュアルでフェイルオーバーさせてデータ
プレーンをN1に移す。
※“show chassis cluster status” にてRG0 と RG+ のPriorityが0になっ
ていないことを確認する。
5. “request system power off” にてN0をパワーオフする。
これによりRG0 のフェイルオーバーが実施される。
※“show chassis cluster status” にてRG0 と RG+ のPriorityが0になっ
ていないことを確認する。
ISHUの手順-2
Node 0 Node 1
RG0 (Ctrl)Primary
RG1 (Data)Primary
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
1st SPC 1st SPC
2nd SPC
Node 0
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
1st SPC 1st SPC
2nd SPC
Node 1
RG1 (Data)Primary
RG0 (Ctrl)Primary
6. 新しいSPCをN0に挿入し起動、PICがOnlineになるまで
待ち、 “show chassis fpc pic-status”にて正常性を確認、
その後“show chassis cluster status” でRG0 と RG+ の
Priorityが0になっていないことを確認して完了。
ISHUの手順-3
Node 0
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
1st SPC 1st SPC
※新しいSPCを挿入しN0を起動
2nd SPC
Node 1
RG1 (Data)Primary
RG0 (Ctrl)Primary
2nd SPC
1st SPC 1st SPC
2nd SPC
Node 1
RG1 (Data)Primary
RG0 (Ctrl)Primary
2nd SPC
Node 0
RG0 (Ctrl)Secondary
RG1 (Data)Secondary
• 新しいSPCを挿入する際には、既存のSPCが挿入されているSlotよりも高いスロットナンバー
に挿入すること。仮にSPCがSlot4まで挿入されていた場合、Slot5以降を使用してSPCの追加
を行う。
• ISHUを行う前に存在していたフローセッションは新しいSPCを挿入しても再度ロードバランス
されることはない。新しいセッションがハンドリングされる時から新しく挿入されたSPCが
ロードバランスの対象としてCPに処理される形となる。
• ISHUを行う手順におけるトラフィックへの影響は、マニュアルでRG0のフェイルオーバーを
実施するのと同等のインパクトに抑えることが可能。
• 新しいSPC は既存で存在しているSPCよりも高いSlotナンバーに挿入する必要が有る。もしそ
のような空きスロットがない場合は、一度システム毎パワーダウンした後にSPCを挿入する必
要が有る。
(つまりSRX5kの初期導入時に若番スロットよりSPCを挿入し始める事が推奨されます。)
ISHUの注意点
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession
jnxJsSPUMonitoringCurrentFlowSession.0 = 0
jnxJsSPUMonitoringCurrentFlowSession.1 = 629397
jnxJsSPUMonitoringCurrentFlowSession.2 = 627402
jnxJsSPUMonitoringCurrentFlowSession.3 = 626636
jnxJsSPUMonitoringCurrentFlowSession.4 = 626239
jnxJsSPUMonitoringCurrentFlowSession.5 = 615707
jnxJsSPUMonitoringCurrentFlowSession.6 = 621165
jnxJsSPUMonitoringCurrentFlowSession.7 = 620860
jnxJsSPUMonitoringCurrentFlowSession.24 = 0
jnxJsSPUMonitoringCurrentFlowSession.25 = 641272
jnxJsSPUMonitoringCurrentFlowSession.26 = 635712
jnxJsSPUMonitoringCurrentFlowSession.27 = 635657
jnxJsSPUMonitoringCurrentFlowSession.28 = 641709
jnxJsSPUMonitoringCurrentFlowSession.29 = 629969
jnxJsSPUMonitoringCurrentFlowSession.30 = 633551
jnxJsSPUMonitoringCurrentFlowSession.31 = 633029
{primary:node0}
root@srx5600node0>
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession
jnxJsSPUMonitoringCurrentCPSession.0 = 4400484
jnxJsSPUMonitoringCurrentCPSession.1 = 0
jnxJsSPUMonitoringCurrentCPSession.2 = 0
jnxJsSPUMonitoringCurrentCPSession.3 = 0
jnxJsSPUMonitoringCurrentCPSession.4 = 0
jnxJsSPUMonitoringCurrentCPSession.5 = 0
jnxJsSPUMonitoringCurrentCPSession.6 = 0
jnxJsSPUMonitoringCurrentCPSession.7 = 0
jnxJsSPUMonitoringCurrentCPSession.24 = 4450337
jnxJsSPUMonitoringCurrentCPSession.25 = 0
jnxJsSPUMonitoringCurrentCPSession.26 = 0
jnxJsSPUMonitoringCurrentCPSession.27 = 0
jnxJsSPUMonitoringCurrentCPSession.28 = 0
jnxJsSPUMonitoringCurrentCPSession.29 = 0
jnxJsSPUMonitoringCurrentCPSession.30 = 0
jnxJsSPUMonitoringCurrentCPSession.31 = 0
サービス拡張シナリオ2-SPC増加後:25Gbps@2*SPC
※Node0、Node1共に
CP*1、SPU*7に増えていることがわかる
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = 1
jnxJsSPUMonitoringCPUUsage.1 = 93
jnxJsSPUMonitoringCPUUsage.2 = 93
jnxJsSPUMonitoringCPUUsage.3 = 93
jnxJsSPUMonitoringCPUUsage.24 = 1
jnxJsSPUMonitoringCPUUsage.25 = 3
jnxJsSPUMonitoringCPUUsage.26 = 2
jnxJsSPUMonitoringCPUUsage.27 = 2
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 4
jnxOperatingCPU.9.3.0.0 = 3
SRX5k Baseline Performance:25Gbps@1*SPC
システムのデータプレーン負荷としては約93%
(Fast Pathプロセッシングでデータを転送している負荷が93%)
(SNIP)
Sorry, this is Trailer version.
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = 4
jnxJsSPUMonitoringCPUUsage.1 = 46
jnxJsSPUMonitoringCPUUsage.2 = 48
jnxJsSPUMonitoringCPUUsage.3 = 47
jnxJsSPUMonitoringCPUUsage.4 = 48
jnxJsSPUMonitoringCPUUsage.5 = 48
jnxJsSPUMonitoringCPUUsage.6 = 46
jnxJsSPUMonitoringCPUUsage.7 = 47
jnxJsSPUMonitoringCPUUsage.24 = 3
jnxJsSPUMonitoringCPUUsage.25 = 1
jnxJsSPUMonitoringCPUUsage.26 = 2
jnxJsSPUMonitoringCPUUsage.27 = 1
jnxJsSPUMonitoringCPUUsage.28 = 1
jnxJsSPUMonitoringCPUUsage.29 = 1
jnxJsSPUMonitoringCPUUsage.30 = 1
jnxJsSPUMonitoringCPUUsage.31 = 1
{primary:node0}
root@srx5600node0>
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 4
jnxOperatingCPU.9.3.0.0 = 3
サービス拡張シナリオ2-結果:25Gbps@2*SPC
システムのデータプレーン負荷としては約47%に低下している
(Fast Pathプロセッシングでデータを転送している負荷が47%)
(SNIP)
Sorry, this is Trailer version.
40
G
40
G
サービス拡張シナリオ-2:確認項目-2
Breaking Point
(Traffic Generator)
10
G
10
G
30
G
30
G
10G*3 10G*3 10G*1 10G*1
East/West
30G
North/South
10G 40
G
40
G
確認項目:
2枚(CCで4枚)へと増強が行われたSRX5600-CCへ印加するトラフィックを
40Gbpsまで上昇させて機器の状態を確認する
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
サービス拡張シナリオ2-結果:40Gbps@2*SPC
システムのデータプレーン負荷としては約74%くらいまで上昇
(Fast Pathプロセッシングでデータを転送している負荷が74%)
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = Gauge32: 6 percent
jnxJsSPUMonitoringCPUUsage.1 = Gauge32: 75 percent
jnxJsSPUMonitoringCPUUsage.2 = Gauge32: 77 percent
jnxJsSPUMonitoringCPUUsage.3 = Gauge32: 75 percent
jnxJsSPUMonitoringCPUUsage.4 = Gauge32: 76 percent
jnxJsSPUMonitoringCPUUsage.5 = Gauge32: 72 percent
jnxJsSPUMonitoringCPUUsage.6 = Gauge32: 71 percent
jnxJsSPUMonitoringCPUUsage.7 = Gauge32: 73 percent
jnxJsSPUMonitoringCPUUsage.24 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.25 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.26 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.27 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.28 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.29 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.30 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.31 = Gauge32: 1 percent
{primary:node0}
root@srx5600node0>
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 4
jnxOperatingCPU.9.3.0.0 = 3
(SNIP)
Sorry, this is Trailer version.
40Gbps処理時のSRXのインターフェイスカウンタ(参考)
srx5600node0 Seconds: 36 Time: 09:36:20
Interface Link Input bytes (bps) Output bytes (bps)
gr-0/0/0 Up 0 (0) 0 (0)
ip-0/0/0 Up 0 (0) 0 (0)
lt-0/0/0 Up 0 (0) 0 (0)
et-5/0/0 Up 2291161362082(28489324120) 1403864772971(20245234512)
et-5/0/1 Up 498838578288(11077633952) 1402210926092(20081481608)
xe-5/2/0 Up 645777 (1032) 10486532664 (88772216)
xe-5/2/1 Down 0 (0) 0 (0)
xe-5/2/2 Down 0 (0) 0 (0)
xe-5/2/3 Down 0 (0) 0 (0)
xe-5/2/4 Down 0 (0) 0 (0)
xe-5/2/5 Down 0 (0) 0 (0)
xe-5/2/6 Down 0 (0) 0 (0)
xe-5/2/7 Down 0 (0) 0 (0)
xe-5/2/8 Up 303668780 (2056) 18735247308 (161887208)
xe-5/2/9 Up 1238016 (2056) 1352550 (2280)
et-11/0/0 Up 4810431294 (0) 13365681431 (0)
et-11/0/1 Up 14403360854 (0) 13365649930 (0)
xe-11/2/0 Up 777788 (184) 252 (0)
xe-11/2/1 Down 0 (0) 0 (0)
xe-11/2/2 Down 0 (0) 0 (0)
xe-11/2/3 Down 0 (0) 0 (0)
xe-11/2/4 Down 0 (0) 0 (0)
xe-11/2/5 Down 0 (0) 0 (0)
xe-11/2/6 Down 0 (0) 0 (0)
xe-11/2/7 Down 0 (0) 0 (0)
xe-11/2/8 Up 18520858400 (155115008) 304797840 (2280)
xe-11/2/9 Up 1304046 (2056) 1460454 (2280)
avs0 Up 0 (0) 0 (0)
avs1 Up 0 (0) 0 (0)
dsc Up 0 0
Bytes=b, Clear=c, Delta=d, Packets=p, Quit=q or ESC, Rate=r, Up=^U, Down=^D
(SNIP)
Sorry, this is Trailer version.
40
G
40
G
サービス拡張シナリオ-2:確認項目-3
Breaking Point
(Traffic Generator)
10
G
10
G
30
G
30
G
10G*3 10G*3 10G*1 10G*1
East/West
30G
North/South
10G 40
G
40
G
確認項目:
約40Gbpsのトラフィックを印加中のSRX5600-CCにおいてSPCの枚数を
2枚(CCで4枚)から3枚(CCで6枚)へと増強した際の効果を確認する
Service Gateway
(SRX5600 Chassis Cluster)
Ethernet Fabric
(QFX5100 Virtual Chassis)
DC Edge Router
(QFX5100)
サービス拡張シナリオ2-結果:40Gbps@3*SPC
システムのデータプレーン負荷としては約47%に低下している
(Fast Pathプロセッシングでデータを転送している負荷が47%)
{primary:node0}
root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage
jnxJsSPUMonitoringCPUUsage.0 = Gauge32: 6 percent
jnxJsSPUMonitoringCPUUsage.1 = Gauge32: 48 percent
jnxJsSPUMonitoringCPUUsage.2 = Gauge32: 49 percent
jnxJsSPUMonitoringCPUUsage.3 = Gauge32: 49 percent
jnxJsSPUMonitoringCPUUsage.4 = Gauge32: 45 percent
jnxJsSPUMonitoringCPUUsage.5 = Gauge32: 48 percent
jnxJsSPUMonitoringCPUUsage.6 = Gauge32: 48 percent
jnxJsSPUMonitoringCPUUsage.7 = Gauge32: 47 percent
jnxJsSPUMonitoringCPUUsage.8 = Gauge32: 49 percent
jnxJsSPUMonitoringCPUUsage.9 = Gauge32: 48 percent
jnxJsSPUMonitoringCPUUsage.10 = Gauge32: 48 percent
jnxJsSPUMonitoringCPUUsage.11 = Gauge32: 47 percent
jnxJsSPUMonitoringCPUUsage.24 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.25 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.26 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.27 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.28 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.29 = Gauge32: 2 percent
jnxJsSPUMonitoringCPUUsage.30 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.31 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.32 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.33 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.34 = Gauge32: 1 percent
jnxJsSPUMonitoringCPUUsage.35 = Gauge32: 1 percent
{primary:node0}
root@srx5600node0> show snmp mib walk jnxOperatingCPU.9
jnxOperatingCPU.9.1.0.0 = 7
jnxOperatingCPU.9.3.0.0 = 6
(SNIP)
Sorry, this is Trailer version.
サービス拡張シナリオ2:結果
No. Action Event Desicription Expectation
11 Insert 2nd SPC with ISHU steps ISHUの手順で、サービス稼働中のSRX5kに2枚めの
SPC増設を行い、システムキャパシティの向上を図る
多少のダウンタイムだけでにハードウェアの拡張が行
われ、システムとしてのスケールアップが完了する。
No. Action Event Down Time @Down Down Time @Up OK/NG Log
11 Insert 2nd SPC with ISHU steps 1.0 sec -
OK BackupSlide 3-1
まとめ:
稼働中のサービスに対して最小限の影響度で、サービス・ゲートウェイのシステムキャパシティ
の大幅な向上を行うことが可能であることが確認された。
Traffic Number of SPCs SPU average Utiliztion RE average Utiliztion OK/NG
15Gbps 1 83% 3% OK
25Gbps 1 93% 4% OK
25Gbps / 2 47% 4% OK
40Gbps 2 74% 4% OK
40Gbps 3 47% 7% OK
(SNIP)
Sorry, this is Trailer version.
サービス拡張-3
〜Low Latency Service〜
(Express Pathによるサービスの低遅延化)
(SNIP P.66〜P.106)
Sorry, this is Trailer version.
続きはWebから…
本資料の完全版は以下にお客様情報を入力いただくことで
ご提供いたします。
ご興味のある方は以下からリクエストください!
https://www2.macnica.net/webapp/form/14276_cdv_324/index.do
※入力頂いたお客様情報は審査をさせていただいた上で、競合さまや企業に紐付かない個人・学生さまと判断された場合には
資料の提供を見合わせていただくことがあります。予めご了承ください。
※「ご質問・ご相談」部分に
“SRX5k資料希望”と記載ください。
Reference Links
http://kb.juniper.net/InfoCenter/index?page=content&id=KB15694
http://www.slideshare.net/JuniperJapan/vsrx-laptop-201505
http://www.juniper.net/jp/jp/local/pdf/others/JNCIS-SEC-1_.pdf
http://www.juniper.net/jp/jp/local/pdf/others/JNCIS-SEC-2_.pdf
マクニカネットワークス 新横浜技術検証センター
SRXシリーズのシャーシモデル SRX1400、SRX5400、
SRX5800などを使用したシステム検証が可能
http://www.macnica.net/contents/techcenter.html/
システム導入前のパフォーマンステスト環境をご提供
160Gbpsスループットテスト(アプリケーションレイヤ)
L4-L7負荷分散
200種類以上のアプリケーションロードテスト
35,000種類以上の攻撃パターンのシュミレート(マルウェアを含む)
Thanks!!!
Your ideas. Connected.
SRX5000シリーズ for Cloud Builders ~Trailer version~ マクニカ&ジュニパー共同資料

More Related Content

What's hot

【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース 【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
Juniper Networks (日本)
 
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
Juniper Networks (日本)
 
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
Juniper Networks (日本)
 
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
Juniper Networks (日本)
 
AppFormix勉強会資料
AppFormix勉強会資料AppFormix勉強会資料
AppFormix勉強会資料
Juniper Networks (日本)
 
『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』
Juniper Networks (日本)
 
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
Juniper Networks (日本)
 
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
Juniper Networks (日本)
 
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
Juniper Networks (日本)
 
Wireless Japan 2015 Juniper Mobile Vision 2020
Wireless Japan 2015 Juniper Mobile Vision 2020Wireless Japan 2015 Juniper Mobile Vision 2020
Wireless Japan 2015 Juniper Mobile Vision 2020
Juniper Networks (日本)
 
EVPN for Cloud Builders
EVPN for Cloud BuildersEVPN for Cloud Builders
EVPN for Cloud Builders
Juniper Networks (日本)
 
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
Juniper Networks (日本)
 
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
Juniper Networks (日本)
 
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイドデータセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
シスコシステムズ合同会社
 
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
Juniper Networks (日本)
 
160719 we love-sd-wan(juniper)_0.2
160719 we love-sd-wan(juniper)_0.2160719 we love-sd-wan(juniper)_0.2
160719 we love-sd-wan(juniper)_0.2
Hiromi Tsukamoto
 
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
Yuki Kitajima
 
VIOPS01: VMwareによる仮想化とネットワーク
VIOPS01: VMwareによる仮想化とネットワークVIOPS01: VMwareによる仮想化とネットワーク
VIOPS01: VMwareによる仮想化とネットワーク
VIOPS Virtualized Infrastructure Operators group ARCHIVES
 
自宅ラック勉強会 4.0/2014 LT資料
自宅ラック勉強会 4.0/2014 LT資料自宅ラック勉強会 4.0/2014 LT資料
自宅ラック勉強会 4.0/2014 LT資料
mempad
 
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
シスコシステムズ合同会社
 

What's hot (20)

【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース 【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
【EX/QFX】JUNOS ハンズオントレーニング資料 EX/QFX シリーズ サービス ゲートウェイ コース
 
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
【Interop Tokyo 2015】 真のビジネスアジリティを実現するSDNソリューションとは? Contrail SDN controller 最新...
 
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
 
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
vSRX on Your Laptop : PCで始めるvSRX ~JUNOSをさわってみよう!~
 
AppFormix勉強会資料
AppFormix勉強会資料AppFormix勉強会資料
AppFormix勉強会資料
 
『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』『WAN SDN Controller NorthStarご紹介 & デモ』
『WAN SDN Controller NorthStarご紹介 & デモ』
 
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
 
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
【Interop Tokyo 2015】将来にわたる収益化を支えるデータセンターインフラとは。
 
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
【Interop Tokyo 2016】 リコーのサービス基盤を支えるジュニパー
 
Wireless Japan 2015 Juniper Mobile Vision 2020
Wireless Japan 2015 Juniper Mobile Vision 2020Wireless Japan 2015 Juniper Mobile Vision 2020
Wireless Japan 2015 Juniper Mobile Vision 2020
 
EVPN for Cloud Builders
EVPN for Cloud BuildersEVPN for Cloud Builders
EVPN for Cloud Builders
 
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
【ジュニパーサロン】データセンタに特化した新しい経路制御技術 RIFTの紹介
 
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
【SRX】JUNOS ハンズオントレーニング資料 SRXシリーズ サービス ゲートウェイ コース
 
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイドデータセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
データセンター向け高機能スイッチ Cisco Nexus スイッチ ガイド
 
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
【Interop Tokyo 2016】 セキュアネットワーク構築の最後のキーディバイス。満を持して登場!
 
160719 we love-sd-wan(juniper)_0.2
160719 we love-sd-wan(juniper)_0.2160719 we love-sd-wan(juniper)_0.2
160719 we love-sd-wan(juniper)_0.2
 
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
OpenStack x Midonet x Mellanox VXLAN offload @OpenStack Days 2015
 
VIOPS01: VMwareによる仮想化とネットワーク
VIOPS01: VMwareによる仮想化とネットワークVIOPS01: VMwareによる仮想化とネットワーク
VIOPS01: VMwareによる仮想化とネットワーク
 
自宅ラック勉強会 4.0/2014 LT資料
自宅ラック勉強会 4.0/2014 LT資料自宅ラック勉強会 4.0/2014 LT資料
自宅ラック勉強会 4.0/2014 LT資料
 
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
【Interop Tokyo 2015】 DC 1: Cisco VXLAN ファブリックの展望
 

Viewers also liked

【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
Juniper Networks (日本)
 
ONIC Japan 2016 - Contrail アップデート
ONIC Japan 2016 - Contrail アップデートONIC Japan 2016 - Contrail アップデート
ONIC Japan 2016 - Contrail アップデート
Juniper Networks (日本)
 
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
Shigeru Kobayashi
 
FabLabGenk info session for doctoral school UHasselt
FabLabGenk info session for doctoral school UHasseltFabLabGenk info session for doctoral school UHasselt
FabLabGenk info session for doctoral school UHasselt
Kris Luyten
 
ニイヨンサンロクゴ
ニイヨンサンロクゴニイヨンサンロクゴ
ニイヨンサンロクゴ
Yutaka Hiroyama
 
Slerがawsで運用してきた話
Slerがawsで運用してきた話Slerがawsで運用してきた話
Slerがawsで運用してきた話
Sato Shun
 
明日からデキるUXデザイン #2ワークショップ編
明日からデキるUXデザイン #2ワークショップ編明日からデキるUXデザイン #2ワークショップ編
明日からデキるUXデザイン #2ワークショップ編
Mari Takahashi
 
明日からデキるUXデザイン#1講義編
明日からデキるUXデザイン#1講義編明日からデキるUXデザイン#1講義編
明日からデキるUXデザイン#1講義編
Mari Takahashi
 

Viewers also liked (8)

【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
【Interop Tokyo 2016】 ギガビット・ファイアウォールは、もう古い。時代は、テラビット・ファイアウォールへ
 
ONIC Japan 2016 - Contrail アップデート
ONIC Japan 2016 - Contrail アップデートONIC Japan 2016 - Contrail アップデート
ONIC Japan 2016 - Contrail アップデート
 
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
イノベーション創出のファシリテータとしてのデジタル工作機械を備えた市民工房
 
FabLabGenk info session for doctoral school UHasselt
FabLabGenk info session for doctoral school UHasseltFabLabGenk info session for doctoral school UHasselt
FabLabGenk info session for doctoral school UHasselt
 
ニイヨンサンロクゴ
ニイヨンサンロクゴニイヨンサンロクゴ
ニイヨンサンロクゴ
 
Slerがawsで運用してきた話
Slerがawsで運用してきた話Slerがawsで運用してきた話
Slerがawsで運用してきた話
 
明日からデキるUXデザイン #2ワークショップ編
明日からデキるUXデザイン #2ワークショップ編明日からデキるUXデザイン #2ワークショップ編
明日からデキるUXデザイン #2ワークショップ編
 
明日からデキるUXデザイン#1講義編
明日からデキるUXデザイン#1講義編明日からデキるUXデザイン#1講義編
明日からデキるUXデザイン#1講義編
 

Similar to SRX5000シリーズ for Cloud Builders ~Trailer version~ マクニカ&ジュニパー共同資料

[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
Trainocate Japan, Ltd.
 
osoljp 2011.08
osoljp 2011.08osoljp 2011.08
osoljp 2011.08
@ otsuka752
 
Cloud stack徹底入門7章 20130514
Cloud stack徹底入門7章 20130514Cloud stack徹底入門7章 20130514
Cloud stack徹底入門7章 20130514samemoon
 
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
シスコシステムズ合同会社
 
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
Insight Technology, Inc.
 
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
シスコシステムズ合同会社
 
Apache cloudstack4.0インストール
Apache cloudstack4.0インストールApache cloudstack4.0インストール
Apache cloudstack4.0インストールYasuhiro Arai
 
ロードバランサのリソース問題を解決する ~NetScaler Clustering~
ロードバランサのリソース問題を解決する ~NetScaler Clustering~ ロードバランサのリソース問題を解決する ~NetScaler Clustering~
ロードバランサのリソース問題を解決する ~NetScaler Clustering~
Citrix Systems Japan
 
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
シスコシステムズ合同会社
 
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ- 100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
Naoto MATSUMOTO
 
Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)
Yasuhiro Arai
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
VirtualTech Japan Inc.
 
Nsx t alb-integration_202108
Nsx t alb-integration_202108Nsx t alb-integration_202108
Nsx t alb-integration_202108
Virtual Cloud Networkers @JPN
 
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
Juniper Networks (日本)
 
SAP Applicationのソース・エンドポイントとしての利用
SAP Applicationのソース・エンドポイントとしての利用SAP Applicationのソース・エンドポイントとしての利用
SAP Applicationのソース・エンドポイントとしての利用
QlikPresalesJapan
 
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
Ryuichi Yasunaga
 
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
Juniper Networks (日本)
 
LagopusとAzureとIPsecとDPDK
LagopusとAzureとIPsecとDPDKLagopusとAzureとIPsecとDPDK
LagopusとAzureとIPsecとDPDK
ShuheiUda
 
【Interop Tokyo 2016】 ShowNet - SSS-17 : ShowNet 2016 を支える シスコの最新テクノロジー
【Interop Tokyo 2016】 ShowNet - SSS-17 :  ShowNet 2016 を支えるシスコの最新テクノロジー【Interop Tokyo 2016】 ShowNet - SSS-17 :  ShowNet 2016 を支えるシスコの最新テクノロジー
【Interop Tokyo 2016】 ShowNet - SSS-17 : ShowNet 2016 を支える シスコの最新テクノロジー
シスコシステムズ合同会社
 
20150715 xflow kikuta_final
20150715 xflow kikuta_final20150715 xflow kikuta_final
20150715 xflow kikuta_final
Kazumasa Ikuta
 

Similar to SRX5000シリーズ for Cloud Builders ~Trailer version~ マクニカ&ジュニパー共同資料 (20)

[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
[G-Tech2014講演資料] シスコのSDN最新動向とITインフラエンジニアに求められるスキル - シスコシステムズ合同会社
 
osoljp 2011.08
osoljp 2011.08osoljp 2011.08
osoljp 2011.08
 
Cloud stack徹底入門7章 20130514
Cloud stack徹底入門7章 20130514Cloud stack徹底入門7章 20130514
Cloud stack徹底入門7章 20130514
 
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
シスコ装置を使い倒す!組込み機能による可視化からセキュリティ強化
 
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
[db tech showcase Tokyo 2017] D21: ついに Red Hat Enterprise Linuxで SQL Serverが使...
 
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
ITpro EXPO 2014: Cisco ACI  ~データセンター運用の効率化と迅速なアプリケーション展開~
 
Apache cloudstack4.0インストール
Apache cloudstack4.0インストールApache cloudstack4.0インストール
Apache cloudstack4.0インストール
 
ロードバランサのリソース問題を解決する ~NetScaler Clustering~
ロードバランサのリソース問題を解決する ~NetScaler Clustering~ ロードバランサのリソース問題を解決する ~NetScaler Clustering~
ロードバランサのリソース問題を解決する ~NetScaler Clustering~
 
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
【Cisco Data Center Forum 2014】 Cisco UCS の今後の方向性と新製品 Cisco UCS Invicta、および新サー...
 
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ- 100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
100GbE NICを使ったデータセンター・ネットワーク実証実験 -メモ-
 
Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)Apache CloudStack 4.0 インストール(ver0.5)
Apache CloudStack 4.0 インストール(ver0.5)
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
 
Nsx t alb-integration_202108
Nsx t alb-integration_202108Nsx t alb-integration_202108
Nsx t alb-integration_202108
 
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
【Interop Tokyo 2022】ここが見どころ!ジュニパーのShowNetにおける取組みご紹介
 
SAP Applicationのソース・エンドポイントとしての利用
SAP Applicationのソース・エンドポイントとしての利用SAP Applicationのソース・エンドポイントとしての利用
SAP Applicationのソース・エンドポイントとしての利用
 
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
3GPP 5G SA Detailed explanation 2(5G Network Slice Call Flow)
 
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
【Interop Tokyo 2023】ShowNetにおけるジュニパーネットワークスの取り組み
 
LagopusとAzureとIPsecとDPDK
LagopusとAzureとIPsecとDPDKLagopusとAzureとIPsecとDPDK
LagopusとAzureとIPsecとDPDK
 
【Interop Tokyo 2016】 ShowNet - SSS-17 : ShowNet 2016 を支える シスコの最新テクノロジー
【Interop Tokyo 2016】 ShowNet - SSS-17 :  ShowNet 2016 を支えるシスコの最新テクノロジー【Interop Tokyo 2016】 ShowNet - SSS-17 :  ShowNet 2016 を支えるシスコの最新テクノロジー
【Interop Tokyo 2016】 ShowNet - SSS-17 : ShowNet 2016 を支える シスコの最新テクノロジー
 
20150715 xflow kikuta_final
20150715 xflow kikuta_final20150715 xflow kikuta_final
20150715 xflow kikuta_final
 

More from Juniper Networks (日本)

Juniper Festa @ Interop Tokyo 2021
Juniper Festa @ Interop Tokyo 2021Juniper Festa @ Interop Tokyo 2021
Juniper Festa @ Interop Tokyo 2021
Juniper Networks (日本)
 
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
Juniper Networks (日本)
 
Juniper Festa @ Interop Tokyo 2019
Juniper Festa @ Interop Tokyo 2019 Juniper Festa @ Interop Tokyo 2019
Juniper Festa @ Interop Tokyo 2019
Juniper Networks (日本)
 
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
Juniper Networks (日本)
 
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
Juniper Networks (日本)
 
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
Juniper Networks (日本)
 
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
Juniper Networks (日本)
 
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
Juniper Networks (日本)
 
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
Juniper Networks (日本)
 
Juniper Festa @ Interop Tokyo 2018
Juniper Festa @ Interop Tokyo 2018Juniper Festa @ Interop Tokyo 2018
Juniper Festa @ Interop Tokyo 2018
Juniper Networks (日本)
 
Juniper Festa @ Interop Tokyo 2017
Juniper Festa @ Interop Tokyo 2017Juniper Festa @ Interop Tokyo 2017
Juniper Festa @ Interop Tokyo 2017
Juniper Networks (日本)
 
FlexEのご紹介 - JANOG 39.5 発表資料
FlexEのご紹介 - JANOG 39.5 発表資料FlexEのご紹介 - JANOG 39.5 発表資料
FlexEのご紹介 - JANOG 39.5 発表資料
Juniper Networks (日本)
 
Junos SpaceによるJunos機器の運用管理
Junos SpaceによるJunos機器の運用管理Junos SpaceによるJunos機器の運用管理
Junos SpaceによるJunos機器の運用管理
Juniper Networks (日本)
 
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
Juniper Networks (日本)
 
はじめての vSRX on AWS
はじめての vSRX on AWSはじめての vSRX on AWS
はじめての vSRX on AWS
Juniper Networks (日本)
 
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
Juniper Networks (日本)
 
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
Juniper Networks (日本)
 
【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
 【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン 【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
Juniper Networks (日本)
 
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
Juniper Networks (日本)
 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
Juniper Networks (日本)
 

More from Juniper Networks (日本) (20)

Juniper Festa @ Interop Tokyo 2021
Juniper Festa @ Interop Tokyo 2021Juniper Festa @ Interop Tokyo 2021
Juniper Festa @ Interop Tokyo 2021
 
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
【ジュニパーサロン】Contrailの進化 Contrail Enterprise Multicloudとは ~Contrailを知っている人も知らない人...
 
Juniper Festa @ Interop Tokyo 2019
Juniper Festa @ Interop Tokyo 2019 Juniper Festa @ Interop Tokyo 2019
Juniper Festa @ Interop Tokyo 2019
 
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
【Interop Tokyo 2018】 Telemetryの匠が解説~オープン技術を用いたマイクロバースト検知の最前線~
 
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
【Interop Tokyo 2018】 ジュニパーの簡易SD-WANソリューション
 
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
【Interop Tokyo 2018】 SDSN - サードパーティ連携によるサイバー脅威の検知とポリシー施行の自動化
 
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
【Interop Tokyo 2018】 自動化の親和性が高く、ネットワーク運用者に優しいJunos OS
 
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
【Interop Tokyo 2018】 マルチクラウド環境のすべてをセキュアに統合運用する切り札
 
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
【Interop Tokyo 2018】マルチクラウド環境における仮想基盤とネットワークの「見える化」は出来ていますか?
 
Juniper Festa @ Interop Tokyo 2018
Juniper Festa @ Interop Tokyo 2018Juniper Festa @ Interop Tokyo 2018
Juniper Festa @ Interop Tokyo 2018
 
Juniper Festa @ Interop Tokyo 2017
Juniper Festa @ Interop Tokyo 2017Juniper Festa @ Interop Tokyo 2017
Juniper Festa @ Interop Tokyo 2017
 
FlexEのご紹介 - JANOG 39.5 発表資料
FlexEのご紹介 - JANOG 39.5 発表資料FlexEのご紹介 - JANOG 39.5 発表資料
FlexEのご紹介 - JANOG 39.5 発表資料
 
Junos SpaceによるJunos機器の運用管理
Junos SpaceによるJunos機器の運用管理Junos SpaceによるJunos機器の運用管理
Junos SpaceによるJunos機器の運用管理
 
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
企業ネットワークの標的型攻撃とクラウド接続の課題に同時対応するソリューション
 
はじめての vSRX on AWS
はじめての vSRX on AWSはじめての vSRX on AWS
はじめての vSRX on AWS
 
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
【ネットワーク仮想化 事例セミナー 2017/2/28】ネットワンシステムズが目指すネットワーク仮想化によるセルフサービスITの実現
 
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
【ネットワーク仮想化 事例セミナー 2017/2/28】Juniper x VMware アンダーレイソリューション デモンストレーション
 
【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
 【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン 【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
【ネットワーク仮想化 事例セミナー 2017/2/28】ジュニパーのネットワーク自動化のビジョン
 
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
【ネットワーク仮想化 事例セミナー 2017/2/28】VMware様 セッション資料
 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
【Interop Tokyo 2016】 ネットワーク仮想化を推進する新たなソリューション 
 

Recently uploaded

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 

Recently uploaded (16)

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 

SRX5000シリーズ for Cloud Builders ~Trailer version~ マクニカ&ジュニパー共同資料

  • 1. SRX5k for Cloud Builders 〜急激に変化するサービス要件に迅速に対応せよ〜 JUN,2015 Macnica Networks Corp. Juniper Networks, K.K.
  • 3. はじめに • この資料の目的は、ジュニパーのデータセンター向けサービスゲートウェイ であるSRX5000シリーズにおける特徴である“サービス稼働中に様々な拡張 を行える”という利点をいくつかの想定構成にて動作確認を行い、サービスへ の影響度と効果を明らかにしつつ情報を共有することにあります。 検証はマクニカネットワークスとジュニパーとの共同で行いました。 • 出来る限り実際のUse Caseにおける環境を想定し検証を行いましたが、現実 にはお客さま毎のアプリケーションを踏まえた想定環境での事前検証が必須 となりますので、本資料はあくまで参考資料の位置付けになります。 すべての動作を保証するものではないことご留意頂けます様お願い致します。
  • 4. Agenda • 評価環境と想定シナリオについて • Base-Lineの測定 • サービス拡張シナリオ-1 : Network Bandwidth Upgrade(RETHとAEの拡張による帯域増強) • サービス拡張シナリオ-2 : In-Service Hardware Upgrade(Dynamic Service Architectureの証明) • サービス拡張シナリオ-3 : Low Latency Service(Express Pathによるサービスの低遅延化) • まとめ
  • 6. ジュニパーの提唱するCloud DCデザイン・アーキテクチャ DC Edge Router Service Gateway FC StorageServers NAS Ethernet /IP Fabric The Internet Datacenter Interconnect North/South & East/West Traffic w/o service East/West Traffic w service North/South Traffic w service
  • 7. Evaluation Test Diagram Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) Breaking Point (Traffic Generator) 10 G DC Edge Router (QFX5100) 10 G 30 G 30 G 10G*3 10G*3 10G*1 10G*1 40 G 40 G
  • 8. 40 G 40 G SRX5k Test Configuration Overview Breaking Point (Traffic Generator) XX G OSPF/BGP Graceful Restart XX G XX G XX G 10G*3 10G*3 10G*1 10G*1 Zone BLUE Zone RED Zone PURPLE Zone MGMT SNMP/Syslog Server North/South Traffic w service From-Zone BLUE To-Zone PURPLE*1000 FW Policies + Logging East/West Traffic w service From-Zone BLUE To-Zone RED *1000 FW Policies + Logging Session Init Log
  • 9. root@srx5600node0> show chassis hardware node0: -------------------------------------------------------------------------- Hardware inventory: Item Version Part number Serial number Description Chassis JN124E56CAGB SRX5600 Midplane REV 01 710-024804 ACRD7518 SRX5600 Midplane FPM Board REV 01 760-058098 CADR6914 Front Panel Display PEM 1 Rev 03 740-034701 QCS15030902F PS 1.4-2.6kW; 90-264V AC in PEM 2 Rev 03 740-034701 QCS150309052 PS 1.4-2.6kW; 90-264V AC in Routing Engine 0 REV 02 740-056658 9009220567 SRX5k RE-1800X4 CB 0 REV 01 750-056587 CADW3399 SRX5k SCB II FPC 0 REV 18 750-044175 CABE7913 SRX5k SPC II CPU BUILTIN BUILTIN SRX5k DPC PPC PIC 0 BUILTIN BUILTIN SPU Cp PIC 1 BUILTIN BUILTIN SPU Flow PIC 2 BUILTIN BUILTIN SPU Flow PIC 3 BUILTIN BUILTIN SPU Flow FPC 5 REV 14 750-043157 CADX0824 SRX5k IOC II CPU REV 05 711-043360 CADY8332 SRX5k MPC PMB MIC 0 REV 08 750-049487 CADX2231 2x 40GE QSFP+ PIC 0 BUILTIN BUILTIN 2x 40GE QSFP+ Xcvr 0 REV 01 740-032986 QB300176 QSFP+-40G-SR4 Xcvr 1 REV 01 740-032986 QB120851 QSFP+-40G-SR4 MIC 1 REV 07 750-049488 CADY7577 10x 10GE SFP+ PIC 2 BUILTIN BUILTIN 10x 10GE SFP+ Xcvr 0 REV 01 740-032276 APF11130010K8E SFP+-10G-ACU3M Xcvr 8 REV 01 740-030077 APF11040026935 SFP+-10G-CU3M Xcvr 9 REV 01 740-030077 APF11040026942 SFP+-10G-CU3M Fan Tray Enhanced Fan Tray (snip) root@srx5600node0> show version node0: -------------------------------------------------------------------------- Hostname: srx5600node0 Model: srx5600 JUNOS Software Release [12.3X48-D10.3] (snip) 使用機材:SRX5600 & JUNOS12.3X48-D10
  • 10. 使用機材:Breaking Point FireStorm @マクニカネットワークス・新横浜検証センター Breaking Point FireStorm Hardware • 4RU、3スロット • 10G 4port Network Processor x 2 Software • Software Version 3.4.2
  • 11. 想定シナリオ-1:Network Bandwidth Upgrade DC Edge Router Service Gateway FC StorageServers NAS Ethernet /IP Fabric The Internet Datacenter Interconnect North/South & East/West Traffic w/o service East/West Traffic w service North/South Traffic w service ネットワーク帯域が逼迫してきたので拡張しなくては ならない。サービス稼働中に。
  • 12. 想定シナリオ-2:In-Service Hardware Upgrade DC Edge Router Service Gateway FC StorageServers NAS Ethernet /IP Fabric The Internet Datacenter Interconnect North/South & East/West Traffic w/o service East/West Traffic w service North/South Traffic w service サービスゲートウェイの処理負荷が逼迫してきたので 拡張しなくてはならない。サービス稼働中に。
  • 13. 想定シナリオ-3:Low Latency Service DC Edge Router Service Gateway FC StorageServers NAS Ethernet /IP Fabric The Internet Datacenter Interconnect North/South & East/West Traffic w/o service East/West Traffic w service North/South Traffic w service 新しいサービスでLow Latencyな通信要件を必要とする システムを収容しなくてはならない。サービス稼働中に。
  • 15. Base-Line まず最初に、稼働中のサービス拡張へのインパクトを理解する前提のために、 以下の点について解説します。 • SRX5k アーキテクチャ • SRX5k のChassis Clusterとスロットナンバリングについて • SRX5k 負荷状態の確認方法について • パフォーマンス測定方法 • パフォーマンス測定結果 • ダウンタイム測定方法 • 各所ダウンタイム測定結果 • Graceful Restartについて
  • 16. SRX5kのコンポーネント SRX5kのハードウェアは主に 以下4つのコンポーネントから構成されます。 • IOC(I/O・カード) I/Oインターフェイスの選択を提供します。今回は40GbE*2、 10GbE*10のMICカード構成で試験を行っています。 • SPC(サービス・プロセッシング・カード) SRX5kの筋肉でもあり、心臓部分でもあるパケットフォワーディングエ ンジンを搭載するカードとなります。ここで各種サービスを提供しなが らパケットの転送を行います。詳細は後の頁で解説します。 • SCB(スイッチング・コントロール・ボード) IOCとSPCを結ぶスイッチング・ファブリックカードです。今回はライ ンカード毎に120Gbpsのバックプレーン帯域を提供するSCBEという ファブリックカードを使用しています。 真ん中にビルトインのREを挿入する部分があります。 • RE(ルーティング・エンジン) システム全体をコントロールする頭脳部分です。ここでJUNOSが稼働し ています。今回はRE-1800X4と呼ばれる最新のREで試験を行っていま す。
  • 17. SPU SRX5kのコンポーネント : SPCについて-1 SRX5000シリーズの現行SPC “SRX5K-4-15-320” には、4つのSPU(サービス・プロセッシ ング・ユニット)と呼ばれるネットワークプロセッサーが搭載されています。 SPUは、Core毎に4 threadを実行する 8つの eight-core プロセッサーから構成されており、 各SPUが並列に各種サービスを実行する仕組みになっています。 SPC SPU SPU SPU SPU 0 1 2 3 • Advanced Routing • Stateful Firewalling • IDP/IPS • NAT • ALG • VPN • Some Screens • Logging Etc… “SRX5K-4-15-320”
  • 18. SPC SPU (Flow) SPU (Flow) SPU (Flow) SPU (Flow) 0 1 2 3 SRX5kのコンポーネント : SPCについて-2 またSRX5kが起動する際、最も若番のSPC内の若番のSPUがCP(Central Point)と呼ばれる役 目を担うこととなり、このCPが複数のSPUsに対してFlow処理の割り当てを行うロードバラン サーとして動作します。この仕組みによりSRX5kにSPCが増設されるたびに処理能力を向上さ せることが可能となっています。 SPC SPU (Flow) SPU (Flow) SPU (Flow) SPU (CP) 0 1 2 3 “SRX5K-4-15-320”がシステムに1枚の場合 (1つのCPが、3つのFlowSPU間で負荷分散) SPU (Flow) SPU (CP) SPU (Flow) SPU (Flow) SPC SPU (Flow) SPU (Flow) SPU (Flow) SPU (CP) 0 1 2 3 SPU (Flow) SPU (CP) SPU (Flow) SPU (Flow) SPU (Flow) SPU (Flow) SPU (Flow) SPU (Flow) “SRX5K-4-15-320”がシステムに2枚の場合 (1つのCPが、7つのFlowSPU間で負荷分散)
  • 19. SRX5k Packet Flow-1 : 新規フローの1stパケット IOC /40 /10 G/1G MIC /40 /10 G/1G MIC XF LU LU SCB SPC SPU (Flow) LU LU XM SPU (Flow) SPU (Flow) SPU (CP) 100 100 1. 新規パケットを受信 フローのルックアップを行い、No Match(New Session)と判断 2. パケットを CPへ転送 3. CP がパケットを転送するSPUを選択し、SPUがセッションをセットアップ 4. パケットがEgress Portに転送される 1 3 4 RE 2
  • 20. SRX5k Packet Flow-2 : セッションセットアップ IOC /40 /10 G/1G MIC /40 /10 G/1G MIC XF LU LU SCB SPC SPU (Flow) LU LU XM SPU (Flow) SPU (Flow) SPU (CP) RE 100 100 1. SPUがSession Setup MessageをCPに送信 2. SPUがSession Setup MessageをIOCに送信 1 2
  • 21. SRX5k Packet Flow-3 : Fastパス・プロセッシング IOC /40 /10 G/1G MIC /40 /10 G/1G MIC XF LU LU SCB SPC SPU (Flow) LU LU XM SPU (Flow) SPU (Flow) SPU (CP) 100 100 1. パケットを受信 フローのルックアップを行い、セッション情報にMatch パケットを処理を担当するSPUに転送 2. SPUはFast Path Processing(セキュリティなどの定義されたサービス)を実施 3. パケットがEgress I/Oから送出される 1 2 3 RE
  • 22. RG0 RG1+ SRX5k Chassis Clusterとその構成要素 SRXは以下の要素を踏まえてChassis Cluster (CC)を構成することで冗長システム化するこ とが可能です。 ジュニパーのEX/QFXスイッチにおけるVirtual Chassisなどと同様、CC化されたSRXは1台の仮 想シャーシ型システムとして動作し冗長性を提 供することが可能となります。 • Control Link 二台の物理シャーシ間でコントロールプレーンの伝達を行う。 • Fabric Link 二台の物理シャーシ間でセッション情報のSyncを行う。必要に応じて (A/A構成時など)パケットの転送も行う • RETH(Redundant Ethernet) 外部ネットワークと接続するためのA/S冗長リンク。 • RG(Redundant Group) 切り替わり範囲を指定する冗長グループ。 RG0はコントロールプレーン(RE)のグループを示し、 RG1〜はデータプレーン(RETH)のグループを示す。 Fabric Link Control Link RETH Master RE Node 1Node 0 Backup RE
  • 23. SRX5k Chassis ClusterとI/Oスロット・ナンバリング SRXがChassis Cluster(CC)化されると一台の システムとしてみなされるため、Node1側のイ ンターフェイスのスロットナンバリングが右図 のように変化します。 右図の例でいうと、 et-2/1/0とet-14/1/0でReth0を構成している、 というイメージになります。 Master RE Node 1Node 0 Backup RE RETH0 Slot0 Slot1 Slot11 Slot12 Slot23
  • 24. Base-Lineパフォーマンス測定 • SRX5600をChassis Cluster構成とし、East/Westトラフィックで10Gbps、 North/Southトラフィックで5Gbpsのアプリケーション負荷をかけて機器の 状態を確認する。 • SRXを経由するする全ての通信に対して、1000づつのFirewallポリシーを設 定し、Session InitにおけるFirewall Loggingを取得している。 • Breaking Pointからのアプリケーションは以下を使用。 • Application Simulator x 4 units • Protocol TCP • HTTP GET [Contents size 10k] x 20 request / TCP connection • mss 1460 bytes
  • 25. {primary:node0} root@srx5600node0> show chassis routing-engine node0: -------------------------------------------------------------------------- Routing Engine status: Slot 0: Current state Master Election priority Master (default) Temperature 34 degrees C / 93 degrees F CPU temperature 31 degrees C / 87 degrees F DRAM 3313 MB (16384 MB installed) Memory utilization 14 percent CPU utilization: User 0 percent Background 0 percent Kernel 3 percent Interrupt 0 percent Idle 97 percent Model RE-S-1800x4 Serial ID 9009220567 Start time 2015-05-13 01:52:09 UTC Uptime 34 minutes, 26 seconds Last reboot reason 0x1:power cycle/failure Load averages: 1 minute 5 minute 15 minute 0.00 0.01 0.06 JUNIPER-MIB::jnxOperatingCPU.9 (REでのCPU Utilization取得MIB) SRX5kの管理・確認コマンドと該当するMIB(RE) SRX5kのコントロールプレーン負荷を確認するには、 “show chassis routing-engine”コマンドで確認します。
  • 26. {primary:node0} root@srx5600node0> show security monitoring fpc 0 node0: -------------------------------------------------------------------------- FPC 0 PIC 0 CPU utilization : 0 % Memory utilization : 10 % Current flow session : 0 Current flow session IPv4: 0 Current flow session IPv6: 0 Max flow session : 0 Current CP session : 5 Current CP session IPv4: 5 Current CP session IPv6: 0 Max CP session : 104857600 Total Session Creation Per Second (for last 96 seconds on average): 0 IPv4 Session Creation Per Second (for last 96 seconds on average): 0 IPv6 Session Creation Per Second (for last 96 seconds on average): 0 PIC 1 CPU utilization : 0 % Memory utilization : 4 % Current flow session : 3 Current flow session IPv4: 3 Current flow session IPv6: 0 Max flow session : 4194304 Current CP session : 0 Current CP session IPv4: 0 Current CP session IPv6: 0 Max CP session : 0 ... (snip) JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCPUUsage (SPU毎のCPU Utilization取得MIB) JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCurrentCPSession (システム全体=CPでの処理Session数取得MIB) JUNIPER-SRX5000-SPU-MONITORING-MIB::jnxJsSPUMonitoringCurrentFlowSession (SPU毎の処理Session数取得MIB) SRX5kの管理・確認コマンドと該当するMIB(SPC/SPU) SRX5kのデータプレーン負荷を確認するには、 “show security monitoring fpc X”コマンドで確認します。
  • 27. root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession jnxJsSPUMonitoringCurrentFlowSession.0 = 0 jnxJsSPUMonitoringCurrentFlowSession.1 = 375686 jnxJsSPUMonitoringCurrentFlowSession.2 = 369767 jnxJsSPUMonitoringCurrentFlowSession.3 = 371301 jnxJsSPUMonitoringCurrentFlowSession.24 = 0 jnxJsSPUMonitoringCurrentFlowSession.25 = 381381 jnxJsSPUMonitoringCurrentFlowSession.26 = 376222 jnxJsSPUMonitoringCurrentFlowSession.27 = 574778 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession jnxJsSPUMonitoringCurrentCPSession.0 = 1127139 jnxJsSPUMonitoringCurrentCPSession.1 = 0 jnxJsSPUMonitoringCurrentCPSession.2 = 0 jnxJsSPUMonitoringCurrentCPSession.3 = 0 jnxJsSPUMonitoringCurrentCPSession.24 = 1330061 jnxJsSPUMonitoringCurrentCPSession.25 = 0 jnxJsSPUMonitoringCurrentCPSession.26 = 0 jnxJsSPUMonitoringCurrentCPSession.27 = 0 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = 1 jnxJsSPUMonitoringCPUUsage.1 = 48 jnxJsSPUMonitoringCPUUsage.2 = 48 jnxJsSPUMonitoringCPUUsage.3 = 48 jnxJsSPUMonitoringCPUUsage.24 = 0 jnxJsSPUMonitoringCPUUsage.25 = 0 jnxJsSPUMonitoringCPUUsage.26 = 1 jnxJsSPUMonitoringCPUUsage.27 = 1 {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 3 jnxOperatingCPU.9.3.0.0 = 3 SRX5kの管理・確認コマンドと数字の見方 Node0の各SPUで保持しているSessionの数 Node1の各SPUで保持しているSessionの数(冗長用) Node0のシステム全体(CP)で保持しているSessionの数 Node1のシステム全体(CP)で保持しているSessionの数(冗長用) システムのデータプレーン負荷の状況:CC Node0 (この例ではFast Pathプロセッシングでデータを転送している負荷で48%) システムのデータプレーン負荷の状況:CC Node1 (こちらは冗長によるスタンバイ側なので、Failover用にセッションのコピーを しているだけ、なので1%くらい) システムのコントロールプレーン負荷の状況
  • 28. SRX5k Baseline Performance-1 40 G 40 G Breaking Point (Traffic Generator) 5 G 5 G 10 G 10 G 10G*3 10G*3 10G*1 10G*1 East/West 10G North/South 5G Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100) 確認項目: 約15GbpsのトラフィックをSRX5600-CCに印加し、 各コンポーネントの状態情報をMIBで取得し状況を確認する
  • 29. {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession jnxJsSPUMonitoringCurrentFlowSession.0 = 0 jnxJsSPUMonitoringCurrentFlowSession.1 = 1546596 jnxJsSPUMonitoringCurrentFlowSession.2 = 1527601 jnxJsSPUMonitoringCurrentFlowSession.3 = 1523715 jnxJsSPUMonitoringCurrentFlowSession.24 = 0 jnxJsSPUMonitoringCurrentFlowSession.25 = 1544386 jnxJsSPUMonitoringCurrentFlowSession.26 = 1526634 jnxJsSPUMonitoringCurrentFlowSession.27 = 1706677 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession jnxJsSPUMonitoringCurrentCPSession.0 = 4597263 jnxJsSPUMonitoringCurrentCPSession.1 = 0 jnxJsSPUMonitoringCurrentCPSession.2 = 0 jnxJsSPUMonitoringCurrentCPSession.3 = 0 jnxJsSPUMonitoringCurrentCPSession.24 = 4781204 jnxJsSPUMonitoringCurrentCPSession.25 = 0 jnxJsSPUMonitoringCurrentCPSession.26 = 0 jnxJsSPUMonitoringCurrentCPSession.27 = 0 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = 1 jnxJsSPUMonitoringCPUUsage.1 = 83 jnxJsSPUMonitoringCPUUsage.2 = 84 jnxJsSPUMonitoringCPUUsage.3 = 83 jnxJsSPUMonitoringCPUUsage.24 = 0 jnxJsSPUMonitoringCPUUsage.25 = 2 jnxJsSPUMonitoringCPUUsage.26 = 2 jnxJsSPUMonitoringCPUUsage.27 = 2 {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 3 jnxOperatingCPU.9.3.0.0 = 3 SRX5k Baseline Performance-1:15Gbps システムのデータプレーン負荷としては約83% (Fast Pathプロセッシングでデータを転送している負荷が83%) システムのコントロールプレーン負荷としては約3% (SNIP) Sorry, this is Trailer version.
  • 30. SRX5k Baseline Performance-2 40 G 40 G Breaking Point (Traffic Generator) 5 G 5 G 20 G 20 G 10G*3 10G*3 10G*1 10G*1 East/West 20G North/South 5G Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100) 確認項目: 印加するトラフィックを15Gbpsから25Gbpsへ上げて、 各コンポーネントの状態情報がどのように変化するかを確認する
  • 31. {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession jnxJsSPUMonitoringCurrentFlowSession.0 = 0 jnxJsSPUMonitoringCurrentFlowSession.1 = 1577179 jnxJsSPUMonitoringCurrentFlowSession.2 = 1559468 jnxJsSPUMonitoringCurrentFlowSession.3 = 1559371 jnxJsSPUMonitoringCurrentFlowSession.24 = 0 jnxJsSPUMonitoringCurrentFlowSession.25 = 1580839 jnxJsSPUMonitoringCurrentFlowSession.26 = 1568506 jnxJsSPUMonitoringCurrentFlowSession.27 = 1767131 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession jnxJsSPUMonitoringCurrentCPSession.0 = 4696755 jnxJsSPUMonitoringCurrentCPSession.1 = 0 jnxJsSPUMonitoringCurrentCPSession.2 = 0 jnxJsSPUMonitoringCurrentCPSession.3 = 0 jnxJsSPUMonitoringCurrentCPSession.24 = 4926937 jnxJsSPUMonitoringCurrentCPSession.25 = 0 jnxJsSPUMonitoringCurrentCPSession.26 = 0 jnxJsSPUMonitoringCurrentCPSession.27 = 0 {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = 1 jnxJsSPUMonitoringCPUUsage.1 = 93 jnxJsSPUMonitoringCPUUsage.2 = 93 jnxJsSPUMonitoringCPUUsage.3 = 93 jnxJsSPUMonitoringCPUUsage.24 = 1 jnxJsSPUMonitoringCPUUsage.25 = 3 jnxJsSPUMonitoringCPUUsage.26 = 2 jnxJsSPUMonitoringCPUUsage.27 = 2 {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 4 jnxOperatingCPU.9.3.0.0 = 3 SRX5k Baseline Performance-2:25Gbps システムのコントロールプレーン負荷としては約4% ※データプレーンのCPUが限界近くまで高騰していたとしても、 コントロールプレーンのCPUは低い位置に留まっているので システムとしては安定していることに注目! システムのデータプレーン負荷としては約93% (Fast Pathプロセッシングでデータを転送している負荷が93%) ※この環境(SPC1枚)でこれ以上の負荷をかけるとセッションが ドロップし始めた。コントロールプレーンの使用率は3〜4%程度とStableなので データプレーンの性能限界である、と理解することができる。 (SNIP) Sorry, this is Trailer version.
  • 32. Base-Lineダウンタイム測定 • SRX5600をChassis Clusterの構成とし、East/Westトラフィック、 North/SouthトラフィックとしてそれぞれUDPショートパケット(64byte)で 秒間100,000パケット送信した状態で、各種障害・メンテナンスアクションを 行ってみてドロップするパケット数をカウントする。 • SRXを経由するする全ての通信に対して、1000づつのFirewallポリシーを設 定し、Session InitにおけるFirewall Loggingを取得している。 • Breaking Pointからのアプリケーションは以下を使用。 • Routing Robot x 4 units • Protocol UDP • packet size 64 bytes
  • 33. Base-Lineダウンタイム測定 40 G 40 G Breaking Point (Traffic Generator) 10G*3 10G*3 10G*1 10G*1 East/West 100000pps North/South 100000pps Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100) 確認項目: UDPのショートパケットを100,000pps印加し、 各ポイントでのアクションにおけるパケットドロップの有無、及びダウンタイムを確認する
  • 34. Ethernet Fabric (QFX5100 Virtual Chassis) Service Gateway (SRX5600 Chassis Cluster) Base-Lineダウンタイム測定ポイント・アクション 40 G 40 G Breaking Point (Traffic Generator) 10G*3 10G*3 10G*1 10G*1 DC Edge Router (QFX5100) No. Action Event 1 Reth Member Link Down/Up 2 Control Link Down/Up 3 Fabric Link Down/Up 4 Fabric Link*2 Down/Up 5 Redundancy Group 0 Manual Failover (+OSPF/BGP Graceful Restart) 6 Redundancy Group 1 Failover 7 Chassis 0 Power Down/Up (RG0,1 failover at same time) 8 Chassis 1 Power Down/Up 9 In-Service Software Upgrade 1 2 3 4 5 6 7 8 9
  • 35. Base-Lineダウンタイム測定ポイント・アクション解説 No. Action Event Desicription Expectation 1 Reth Member Link Down/Up Rethを構成するMember InterfaceのActive側を抜線 する CCのFailoverが発生して瞬断で通信が復旧する。 2 Control Link Down/Up Control Linkを抜線する CCの保護機能によりSecondary側のNodeがDisable Stateとなる。通信には影響なし。 3 Fabric Link Down/Up Fabric Linkの片側を抜線する この試験ではFabric Linkが冗長されているため何も起 こらず。通信には影響なし。 4 Fabric Link*2 Down/Up Fabric Linkを2本とも抜線する CC間のセッション同期がされなくなる。通信には影響 なし。 5 Redundancy Group 0 Manual Failover (+OSPF/BGP Graceful Restart) CLIからREのMaster・Backupを切り替える この試験構成ではNorth/Southトラフィックの宛先 ルートをOSPF/BGPで受信しているため、通常であれ ば通信断が発生するが、Graceful Restartの設定によ りルートが保持されて、通信には影響がでない。 6 Redundancy Group 1 Failover CLIからRethのメンバーリンクのA/Sを切り替える CCのFailoverが発生して瞬断で通信が復旧する。 7 Chassis 0 Power Down/Up (RG0,1 failover at same time) RG0,1共にPrimaryを保持するNode0の電源をシャッ トダウンする RG0,1共に同時にNode1へ遷移するので、多少のダウ ンタイムの後に通信が復旧する。 8 Chassis 1 Power Down/Up RG0,1共にSecondary を保持するNode1の電源を シャットダウンする 何も起こらず。通信には影響なし。 9 In-Service Software Upgrade CLIからISSUを使用してソフトウェアのバージョンを アップする 多少のダウンタイムの後にソフトウェアのバージョン アップが完了し通信が復旧する。
  • 36. Base-Lineダウンタイム測定結果 No. Action Event Down Time @Down Down Time @Up OK/NG Log 1 Reth Member Link Down/Up 0.22 sec 0.37sec OK BackupSlide 1-1 2 Control Link Down/Up 0 sec 0 sec OK BackupSlide 1-2 3 Fabric Link Down/Up 0 sec 0 sec OK BackupSlide 1-3 4 Fabric Link*2 Down/Up 0 sec 0 sec OK BackupSlide 1-4 5 Redundancy Group 0 Manual Failover (+OSPF/BGP Graceful Restart) 0 sec - OK BackupSlide 1-5 6 Redundancy Group 1 Failover 0.93 sec 0.5 sec OK BackupSlide 1-6 7 Chassis 0 Power Down/Up (RG0,1 failover at same time) 0.62 sec 0.42 sec OK BackupSlide 1-7 8 Chassis 1 Power Down/Up 0 sec 0 sec OK BackupSlide 1-8 9 In-Service Software Upgrade 1.74 sec - OK BackupSlide 1-9 (SNIP) Sorry, this is Trailer version.
  • 38. Protocol Graceful Restartについて 今回の試験構成では、North/Southトラフィックに関してはOSPF/BGPによって学習した経 路宛の通信構成としています。 この場合にSRX5k-CCのコントロールプレーン・フェイルオーバーをする際のダウンタイム を最小にするためにはSRX側でProtocol Graceful Restartの設定をおこなう必要があります。 (JUNOSではDefaultでGraceful Restart Helper機能が動作しているため、QFX側では特別 な設定の必要はなし。) ※参考までにGraceful RestartをDisableにした状態でテスト項番.5を実施したところ、 ダウンタイムが0秒→約10秒という結果に変化しました。 OSPF/BGP Service Gateway (SRX5600 Chassis Cluster) DC Edge Router (QFX5100) DG0: Primary DG0: Secondary Failover
  • 39. Protocol Graceful Restart設定 {primary:node0}[edit] root@srx5600node0# set routing-options graceful-restart root@srx5600node0# set protocols bgp graceful-restart root@srx5600node0# set protocols ospf graceful-restart restart-duration 190 root@srx5600node0# set protocols ospf graceful-restart notify-duration 40
  • 41. サービス拡張シナリオ-1: サービスゲートウェイのネットワーク帯域増強 Service Gateway The Internet Datacenter Interconnect データセンターアーキテクチャに於いてサービス ゲートウェイをIn-Line型ではなくOne-Arm型で デザインすることのメリットとして、 • サービス宛のトラフィックとサービスを必要と しないトラフィックの通信経路を柔軟にデザイ ンできる • サービス宛のトラフィック容量を増加したい場 合、LAGの拡張だけで簡単に増強が可能 という点が挙げられます。 サービス拡張シナリオ-1ではSRX5k-CCにおける LAG増強時におけるサービストラフィックへのイ ンパクトを確認します。 サービス宛ネットワーク帯域という観点では、 管理者はここの使用率傾向をみておくだけで 増強すべきタイミングを把握することが可能
  • 42. 40 G 40 G サービス拡張シナリオ1:確認項目 Breaking Point (Traffic Generator) 5 G 5 G 10 G 10 G 10G*3 10G*3 10G*1 10G*1 East/West 10G North/South 5G 40 G 40 G 確認項目: 約15Gbpsのトラフィックを印加中のSRX5600-CCにおいて 40G(40G*2)→80G(40G*4)へのLAGの増強を行う際のサービスインパクトを測定する Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100)
  • 43. Chassis ClusterとVC間のReth/AEについて Ethernet Fabric (QFX5100 Virtual Chassis) Service Gateway (SRX5600 Chassis Cluster) RETH0 AE0 AE1 スイッチとSRX間のリンクは仮に初期導入時には1本だとしても、将来拡張時のために 最初からスイッチ側をLAGで組んでおくと便利です。 CCのRETHとVCのAEを繋げる場合の考え方は、以下のようにRETH1本に対して、 対向のスイッチからは、AE0とAE1の2本のLAGで接続する形になります。 この構成でLACPをEnableにすると、VC側はAE0、AE1のLACPは共にActiveとなります。 (ただしSRXのBackup Link側ではARPへの返答は一切行われないので通信は流れない。)
  • 44. {primary:node0}[edit] root@srx5600node0# show interfaces reth0 |display set set interfaces reth0 vlan-tagging set interfaces reth0 redundant-ether-options redundancy-group 1 set interfaces reth0 redundant-ether-options lacp active set interfaces reth0 redundant-ether-options lacp periodic slow set interfaces reth0 unit 100 description public-servers set interfaces reth0 unit 100 vlan-id 100 ... set interfaces et-5/0/0 gigether-options redundant-parent reth0 set interfaces et-11/0/0 gigether-options redundant-parent reth0 ... (snip) root@srx5600node0# set interfaces et-5/0/1 gigether-options redundant-parent reth0 root@srx5600node0# set interfaces et-11/0/1 gigether-options redundant-parent reth0 {primary:node0}[edit] root@srx5600node0# show |compare [edit interfaces] + et-5/0/1 { + gigether-options { + redundant-parent reth0; + } + } + et-11/0/1 { + gigether-options { + redundant-parent reth0; + } + } {primary:node0}[edit] root@srx5600node0# commit もともとのSRX5k側のReth周りの設定 サービス拡張シナリオ1:RETHメンバーリンクの追加 Rethにメンバーリンクを追加する設定 ※対向側のQFX-VCのAE0、AE1に対しても該当のインターフェイスを追加する Ethernet Fabric (QFX5100 Virtual Chassis) RETH0 AE0 AE1
  • 45. VC Seconds: 154 Time: 07:12:37 Interface Link Input bytes (bps) Output bytes (bps) vcp-255/0/94 Up 754459255781 (37840) 1740598039817 (105910776) vcp-255/0/95 Up 754796473661 (3800) 1740507771103 (103747624) et-0/0/96 Up 8120661272810(14836093520) 9078924651190(14836055992) et-0/0/97 Down 4946543470 (0) 23304064081 (0) gr-0/0/0 Up 0 (0) 0 (0) pfh-0/0/0 Up 0 0 xe-0/0/0 Up 167105377313 (207321768) 2228398037067 (6957196304) xe-0/0/10 Up 2602258830406 (6955225560) 294405787254 (415965712) xe-0/0/20 Up 342881868509 (416320672) 2423469244320 (6957078704) xe-0/0/22 Up 163668949402 (0) 1662569789115 (0) xe-0/0/30 Up 2631571966230 (6954056448) 302839399244 (416194456) et-1/0/96 Up 16558158617 (0) 33235332184 (640) pfh-1/0/0 Up 0 0 xe-1/0/0 Up 168281278121 (209100024) 166589117046 (0) xe-1/0/20 Up 48478234854 (0) 1289028153714 (0) xe-1/0/30 Up 1832179452368 (0) 162362763586 (152) xe-1/0/32 Up 1380403611244 (0) 63045625722 (952) ae0 Up 8570960043651(14836093520) 9362824067411(14836055992) ae1 Up 21504702087 (0) 56539396265 (640) ae2 Up 335386655434 (416421792) 2394987154113 (6957196304) ae3 Down 0 (0) 0 (0) bme0 Up 0 240166848 bme1 Up 0 0 ... (snip) サービス拡張シナリオ1:RETHメンバーリンクの追加前 ※対向のQFX-VC側のトラフィックカウンター ae0で約15Gbpsの通信量がカウントされている。 et-0/0/96でも同様の通信量がカウントされている。
  • 46. VC Seconds: 59 Time: 07:15:49 Interface Link Input bytes (bps) Output bytes (bps) vcp-255/0/94 Up 568596 (36008) 18594476181 (1969726256) vcp-255/0/95 Up 77359 (4704) 18523795513 (1922966080) et-0/0/96 Up 68839732384 (7352206048) 135086502616(14515247648) et-0/0/97 Up 512 (0) 3646 (1232) gr-0/0/0 Up 0 (0) 0 (0) pfh-0/0/0 Up 0 0 xe-0/0/0 Up 1934045234 (203858352) 31036983715 (3444979864) xe-0/0/10 Up 64407539348 (6907155168) 3754780286 (412885648) xe-0/0/20 Up 3889930739 (413892016) 62620891559 (6910800424) xe-0/0/22 Up 0 (0) 2940 (472) xe-0/0/30 Up 64518850419 (6911536600) 3790273040 (413914624) et-1/0/96 Up 512 (0) 6014 (1072) et-1/0/97 Up 68532507767 (7379725536) 2043495848 (220741432) pfh-1/0/0 Up 0 0 xe-1/0/0 Up 1942307540 (209276240) 30928901956 (3462123304) xe-1/0/20 Up 0 (0) 2940 (456) xe-1/0/30 Up 0 (0) 1916 (608) xe-1/0/32 Up 0 (0) 2315 (1408) ae0 Up 137372240151(14731931584) 137129998464(14735989080) ae1 Up 1024 (0) 9660 (2304) ae2 Up 3876352774 (413134592) 61965885671 (6907103168) ae3 Down 0 (0) 0 (0) bme0 Up 0 498480 bme1 Up 0 0 ... (snip) サービス拡張シナリオ1:RETHメンバーリンクの追加後 ※対向のQFX-VC側のトラフィックカウンター ae0で約15Gbpsの通信量がカウントされている。 et-0/0/96とet-1/0/97(=ae0)で分散されながら 同様の通信量がカウントされている。
  • 47. サービス拡張シナリオ1:結果 No. Action Event Desicription Expectation 10 Reth Member Link Add Rethを構成するMember Linkに新たにインターフェイ スを追加し、併せて対向側のQFX-VCのAE0,AE1にも Member Linkを追加することで、40G*2*2(80G- Act/80G-Stby)へとネットワーク帯域を拡張する SRX5kのRethとQFX-VCのAE間でLACPのネゴシエー ションが行われた後に、ネットワーク帯域が拡張され、 トラフィックがバランスされる。通信には影響なし。 No. Action Event Down Time @Down Down Time @Up OK/NG Log 10 Reth Member Link Add - 0 sec OK BackupSlide 2-1 まとめ: 稼働中のサービスに影響すること無く、サービス・ゲートウェイへのネットワーク帯域の拡張を 行うことが可能であることが確認された。 (SNIP) Sorry, this is Trailer version.
  • 49. サービス拡張シナリオ-2: In-Service Hardware Upgrade (Dynamic Service Architecture) SRX5000シリーズのDynamic Service Architectureは、収 容するサービスへの需要によって変化するサービスゲート ウェイへのパフォーマンス・スケール要件にたいして、SPC の増設だけでシステムとしての拡張性を向上させることが可 能です。 サービス拡張シナリオ-2ではSRX5k-CCにおけるSPC増設時 におけるサービストラフィックへのインパクトを確認します。 SRX5kのDynamic Service Architectureによりシス テムの負荷状況に応じてSPCを追加するだけで、柔軟 で迅速なシステムアップグレードが可能に ”Pay as you Grow”というコンセプトを実現 増設する毎にリニアにシステムのパフォーマンス やスケーラビリティを上昇させることが可能な SRX5kのSPC
  • 50. 40 G 40 G サービス拡張シナリオ-2:確認項目-1 Breaking Point (Traffic Generator) 5 G 5 G 20 G 20 G 10G*3 10G*3 10G*1 10G*1 East/West 20G North/South 5G 40 G 40 G 確認項目: 約25Gbpsのトラフィックを印加中SRX5600-CCにおけるSPCの枚数を 1枚(CCで2枚)から2枚(CCで4枚)へと増強を行う際のサービスインパクトと、 SPCを増設した後の効果を確認する Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100)
  • 51. In-Service Hardware Upgrade(ISHU)とは、 • ISHUとは、稼働中のSRXにSPCを追加してキャパシティをダイナミックに増加させる機能 のこと(≒Dynamic Service Architecture) • 新しく挿入したSPCを有効に活用するためにはNodeのRebootが必要となるため、いわゆる Hot Insertではない ただし、Chassis Clusterを構成するSRXにおいてトラフィックへの影響時間は、マニュア ルによるRG0のFailoverレベルで実施することが可能となる • 新しいSPCを挿入することのできるスロットには制限があるので(※後述)注意が必要 • HA & ISSU 機能には影響無し • SPC InsertはChassis Clusterが構成されているSRXでのみサポートされ、Standaloneデバ イスでは実行できない
  • 52. 1. ここでは、DG0、DG1共にNode 0 (N0) が primary 、 Node 1 (N1) が secondary としてクラスターが構成され ていると仮定します。 2. SPC Insertを実行する前には、両方のNodeが正常に動作し ていることを確認する。 ※ “show chassis cluster status” にて RG0 と RG+ のPriorityが オペレー ションミスなどで0や255になっていないことを確認する。(重要!) 3. “request system power off” コマンドにてN1をパワーダ ウンさせた後、新しい SPCを挿入し、再びN1を起動する。 N1が完全に起動し、PICがOnlineになるまで待ち、“show chassis fpc pic-status”コマンドで正常状態を確認する。 ※ 再度“show chassis cluster status” にて RG0 と RG+ のPriorityが オペ レーションミスなどで0や255になっていないことを確認する。 Node 0 Node 1 ISHUの手順-1 RG0 (Ctrl)Primary RG1 (Data)Primary RG0 (Ctrl)Secondary RG1 (Data)Secondary 1st SPC 1st SPC Node 0 Node 1 RG0 (Ctrl)Primary RG1 (Data)Primary RG0 (Ctrl)Secondary RG1 (Data)Secondary 1st SPC 1st SPC ※新しいSPCを挿入しN1を起動 2nd SPC
  • 53. 4. “RG+” をマニュアルでフェイルオーバーさせてデータ プレーンをN1に移す。 ※“show chassis cluster status” にてRG0 と RG+ のPriorityが0になっ ていないことを確認する。 5. “request system power off” にてN0をパワーオフする。 これによりRG0 のフェイルオーバーが実施される。 ※“show chassis cluster status” にてRG0 と RG+ のPriorityが0になっ ていないことを確認する。 ISHUの手順-2 Node 0 Node 1 RG0 (Ctrl)Primary RG1 (Data)Primary RG0 (Ctrl)Secondary RG1 (Data)Secondary 1st SPC 1st SPC 2nd SPC Node 0 RG0 (Ctrl)Secondary RG1 (Data)Secondary 1st SPC 1st SPC 2nd SPC Node 1 RG1 (Data)Primary RG0 (Ctrl)Primary
  • 54. 6. 新しいSPCをN0に挿入し起動、PICがOnlineになるまで 待ち、 “show chassis fpc pic-status”にて正常性を確認、 その後“show chassis cluster status” でRG0 と RG+ の Priorityが0になっていないことを確認して完了。 ISHUの手順-3 Node 0 RG0 (Ctrl)Secondary RG1 (Data)Secondary 1st SPC 1st SPC ※新しいSPCを挿入しN0を起動 2nd SPC Node 1 RG1 (Data)Primary RG0 (Ctrl)Primary 2nd SPC 1st SPC 1st SPC 2nd SPC Node 1 RG1 (Data)Primary RG0 (Ctrl)Primary 2nd SPC Node 0 RG0 (Ctrl)Secondary RG1 (Data)Secondary
  • 55. • 新しいSPCを挿入する際には、既存のSPCが挿入されているSlotよりも高いスロットナンバー に挿入すること。仮にSPCがSlot4まで挿入されていた場合、Slot5以降を使用してSPCの追加 を行う。 • ISHUを行う前に存在していたフローセッションは新しいSPCを挿入しても再度ロードバランス されることはない。新しいセッションがハンドリングされる時から新しく挿入されたSPCが ロードバランスの対象としてCPに処理される形となる。 • ISHUを行う手順におけるトラフィックへの影響は、マニュアルでRG0のフェイルオーバーを 実施するのと同等のインパクトに抑えることが可能。 • 新しいSPC は既存で存在しているSPCよりも高いSlotナンバーに挿入する必要が有る。もしそ のような空きスロットがない場合は、一度システム毎パワーダウンした後にSPCを挿入する必 要が有る。 (つまりSRX5kの初期導入時に若番スロットよりSPCを挿入し始める事が推奨されます。) ISHUの注意点
  • 56. {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentFlowSession jnxJsSPUMonitoringCurrentFlowSession.0 = 0 jnxJsSPUMonitoringCurrentFlowSession.1 = 629397 jnxJsSPUMonitoringCurrentFlowSession.2 = 627402 jnxJsSPUMonitoringCurrentFlowSession.3 = 626636 jnxJsSPUMonitoringCurrentFlowSession.4 = 626239 jnxJsSPUMonitoringCurrentFlowSession.5 = 615707 jnxJsSPUMonitoringCurrentFlowSession.6 = 621165 jnxJsSPUMonitoringCurrentFlowSession.7 = 620860 jnxJsSPUMonitoringCurrentFlowSession.24 = 0 jnxJsSPUMonitoringCurrentFlowSession.25 = 641272 jnxJsSPUMonitoringCurrentFlowSession.26 = 635712 jnxJsSPUMonitoringCurrentFlowSession.27 = 635657 jnxJsSPUMonitoringCurrentFlowSession.28 = 641709 jnxJsSPUMonitoringCurrentFlowSession.29 = 629969 jnxJsSPUMonitoringCurrentFlowSession.30 = 633551 jnxJsSPUMonitoringCurrentFlowSession.31 = 633029 {primary:node0} root@srx5600node0> {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCurrentCPSession jnxJsSPUMonitoringCurrentCPSession.0 = 4400484 jnxJsSPUMonitoringCurrentCPSession.1 = 0 jnxJsSPUMonitoringCurrentCPSession.2 = 0 jnxJsSPUMonitoringCurrentCPSession.3 = 0 jnxJsSPUMonitoringCurrentCPSession.4 = 0 jnxJsSPUMonitoringCurrentCPSession.5 = 0 jnxJsSPUMonitoringCurrentCPSession.6 = 0 jnxJsSPUMonitoringCurrentCPSession.7 = 0 jnxJsSPUMonitoringCurrentCPSession.24 = 4450337 jnxJsSPUMonitoringCurrentCPSession.25 = 0 jnxJsSPUMonitoringCurrentCPSession.26 = 0 jnxJsSPUMonitoringCurrentCPSession.27 = 0 jnxJsSPUMonitoringCurrentCPSession.28 = 0 jnxJsSPUMonitoringCurrentCPSession.29 = 0 jnxJsSPUMonitoringCurrentCPSession.30 = 0 jnxJsSPUMonitoringCurrentCPSession.31 = 0 サービス拡張シナリオ2-SPC増加後:25Gbps@2*SPC ※Node0、Node1共に CP*1、SPU*7に増えていることがわかる
  • 57. {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = 1 jnxJsSPUMonitoringCPUUsage.1 = 93 jnxJsSPUMonitoringCPUUsage.2 = 93 jnxJsSPUMonitoringCPUUsage.3 = 93 jnxJsSPUMonitoringCPUUsage.24 = 1 jnxJsSPUMonitoringCPUUsage.25 = 3 jnxJsSPUMonitoringCPUUsage.26 = 2 jnxJsSPUMonitoringCPUUsage.27 = 2 {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 4 jnxOperatingCPU.9.3.0.0 = 3 SRX5k Baseline Performance:25Gbps@1*SPC システムのデータプレーン負荷としては約93% (Fast Pathプロセッシングでデータを転送している負荷が93%) (SNIP) Sorry, this is Trailer version.
  • 58. {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = 4 jnxJsSPUMonitoringCPUUsage.1 = 46 jnxJsSPUMonitoringCPUUsage.2 = 48 jnxJsSPUMonitoringCPUUsage.3 = 47 jnxJsSPUMonitoringCPUUsage.4 = 48 jnxJsSPUMonitoringCPUUsage.5 = 48 jnxJsSPUMonitoringCPUUsage.6 = 46 jnxJsSPUMonitoringCPUUsage.7 = 47 jnxJsSPUMonitoringCPUUsage.24 = 3 jnxJsSPUMonitoringCPUUsage.25 = 1 jnxJsSPUMonitoringCPUUsage.26 = 2 jnxJsSPUMonitoringCPUUsage.27 = 1 jnxJsSPUMonitoringCPUUsage.28 = 1 jnxJsSPUMonitoringCPUUsage.29 = 1 jnxJsSPUMonitoringCPUUsage.30 = 1 jnxJsSPUMonitoringCPUUsage.31 = 1 {primary:node0} root@srx5600node0> {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 4 jnxOperatingCPU.9.3.0.0 = 3 サービス拡張シナリオ2-結果:25Gbps@2*SPC システムのデータプレーン負荷としては約47%に低下している (Fast Pathプロセッシングでデータを転送している負荷が47%) (SNIP) Sorry, this is Trailer version.
  • 59. 40 G 40 G サービス拡張シナリオ-2:確認項目-2 Breaking Point (Traffic Generator) 10 G 10 G 30 G 30 G 10G*3 10G*3 10G*1 10G*1 East/West 30G North/South 10G 40 G 40 G 確認項目: 2枚(CCで4枚)へと増強が行われたSRX5600-CCへ印加するトラフィックを 40Gbpsまで上昇させて機器の状態を確認する Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100)
  • 60. サービス拡張シナリオ2-結果:40Gbps@2*SPC システムのデータプレーン負荷としては約74%くらいまで上昇 (Fast Pathプロセッシングでデータを転送している負荷が74%) {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = Gauge32: 6 percent jnxJsSPUMonitoringCPUUsage.1 = Gauge32: 75 percent jnxJsSPUMonitoringCPUUsage.2 = Gauge32: 77 percent jnxJsSPUMonitoringCPUUsage.3 = Gauge32: 75 percent jnxJsSPUMonitoringCPUUsage.4 = Gauge32: 76 percent jnxJsSPUMonitoringCPUUsage.5 = Gauge32: 72 percent jnxJsSPUMonitoringCPUUsage.6 = Gauge32: 71 percent jnxJsSPUMonitoringCPUUsage.7 = Gauge32: 73 percent jnxJsSPUMonitoringCPUUsage.24 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.25 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.26 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.27 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.28 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.29 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.30 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.31 = Gauge32: 1 percent {primary:node0} root@srx5600node0> {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 4 jnxOperatingCPU.9.3.0.0 = 3 (SNIP) Sorry, this is Trailer version.
  • 61. 40Gbps処理時のSRXのインターフェイスカウンタ(参考) srx5600node0 Seconds: 36 Time: 09:36:20 Interface Link Input bytes (bps) Output bytes (bps) gr-0/0/0 Up 0 (0) 0 (0) ip-0/0/0 Up 0 (0) 0 (0) lt-0/0/0 Up 0 (0) 0 (0) et-5/0/0 Up 2291161362082(28489324120) 1403864772971(20245234512) et-5/0/1 Up 498838578288(11077633952) 1402210926092(20081481608) xe-5/2/0 Up 645777 (1032) 10486532664 (88772216) xe-5/2/1 Down 0 (0) 0 (0) xe-5/2/2 Down 0 (0) 0 (0) xe-5/2/3 Down 0 (0) 0 (0) xe-5/2/4 Down 0 (0) 0 (0) xe-5/2/5 Down 0 (0) 0 (0) xe-5/2/6 Down 0 (0) 0 (0) xe-5/2/7 Down 0 (0) 0 (0) xe-5/2/8 Up 303668780 (2056) 18735247308 (161887208) xe-5/2/9 Up 1238016 (2056) 1352550 (2280) et-11/0/0 Up 4810431294 (0) 13365681431 (0) et-11/0/1 Up 14403360854 (0) 13365649930 (0) xe-11/2/0 Up 777788 (184) 252 (0) xe-11/2/1 Down 0 (0) 0 (0) xe-11/2/2 Down 0 (0) 0 (0) xe-11/2/3 Down 0 (0) 0 (0) xe-11/2/4 Down 0 (0) 0 (0) xe-11/2/5 Down 0 (0) 0 (0) xe-11/2/6 Down 0 (0) 0 (0) xe-11/2/7 Down 0 (0) 0 (0) xe-11/2/8 Up 18520858400 (155115008) 304797840 (2280) xe-11/2/9 Up 1304046 (2056) 1460454 (2280) avs0 Up 0 (0) 0 (0) avs1 Up 0 (0) 0 (0) dsc Up 0 0 Bytes=b, Clear=c, Delta=d, Packets=p, Quit=q or ESC, Rate=r, Up=^U, Down=^D (SNIP) Sorry, this is Trailer version.
  • 62. 40 G 40 G サービス拡張シナリオ-2:確認項目-3 Breaking Point (Traffic Generator) 10 G 10 G 30 G 30 G 10G*3 10G*3 10G*1 10G*1 East/West 30G North/South 10G 40 G 40 G 確認項目: 約40Gbpsのトラフィックを印加中のSRX5600-CCにおいてSPCの枚数を 2枚(CCで4枚)から3枚(CCで6枚)へと増強した際の効果を確認する Service Gateway (SRX5600 Chassis Cluster) Ethernet Fabric (QFX5100 Virtual Chassis) DC Edge Router (QFX5100)
  • 63. サービス拡張シナリオ2-結果:40Gbps@3*SPC システムのデータプレーン負荷としては約47%に低下している (Fast Pathプロセッシングでデータを転送している負荷が47%) {primary:node0} root@srx5600node0> show snmp mib walk jnxJsSPUMonitoringCPUUsage jnxJsSPUMonitoringCPUUsage.0 = Gauge32: 6 percent jnxJsSPUMonitoringCPUUsage.1 = Gauge32: 48 percent jnxJsSPUMonitoringCPUUsage.2 = Gauge32: 49 percent jnxJsSPUMonitoringCPUUsage.3 = Gauge32: 49 percent jnxJsSPUMonitoringCPUUsage.4 = Gauge32: 45 percent jnxJsSPUMonitoringCPUUsage.5 = Gauge32: 48 percent jnxJsSPUMonitoringCPUUsage.6 = Gauge32: 48 percent jnxJsSPUMonitoringCPUUsage.7 = Gauge32: 47 percent jnxJsSPUMonitoringCPUUsage.8 = Gauge32: 49 percent jnxJsSPUMonitoringCPUUsage.9 = Gauge32: 48 percent jnxJsSPUMonitoringCPUUsage.10 = Gauge32: 48 percent jnxJsSPUMonitoringCPUUsage.11 = Gauge32: 47 percent jnxJsSPUMonitoringCPUUsage.24 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.25 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.26 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.27 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.28 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.29 = Gauge32: 2 percent jnxJsSPUMonitoringCPUUsage.30 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.31 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.32 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.33 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.34 = Gauge32: 1 percent jnxJsSPUMonitoringCPUUsage.35 = Gauge32: 1 percent {primary:node0} root@srx5600node0> show snmp mib walk jnxOperatingCPU.9 jnxOperatingCPU.9.1.0.0 = 7 jnxOperatingCPU.9.3.0.0 = 6 (SNIP) Sorry, this is Trailer version.
  • 64. サービス拡張シナリオ2:結果 No. Action Event Desicription Expectation 11 Insert 2nd SPC with ISHU steps ISHUの手順で、サービス稼働中のSRX5kに2枚めの SPC増設を行い、システムキャパシティの向上を図る 多少のダウンタイムだけでにハードウェアの拡張が行 われ、システムとしてのスケールアップが完了する。 No. Action Event Down Time @Down Down Time @Up OK/NG Log 11 Insert 2nd SPC with ISHU steps 1.0 sec - OK BackupSlide 3-1 まとめ: 稼働中のサービスに対して最小限の影響度で、サービス・ゲートウェイのシステムキャパシティ の大幅な向上を行うことが可能であることが確認された。 Traffic Number of SPCs SPU average Utiliztion RE average Utiliztion OK/NG 15Gbps 1 83% 3% OK 25Gbps 1 93% 4% OK 25Gbps / 2 47% 4% OK 40Gbps 2 74% 4% OK 40Gbps 3 47% 7% OK (SNIP) Sorry, this is Trailer version.
  • 65. サービス拡張-3 〜Low Latency Service〜 (Express Pathによるサービスの低遅延化) (SNIP P.66〜P.106) Sorry, this is Trailer version.