VYATTA USERS MEETING Autumn 2013 - Mellanox OpenEthernet
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share

VYATTA USERS MEETING Autumn 2013 - Mellanox OpenEthernet

  • 1,516 views
Uploaded on

Mellanox OpenEthernet (俺々ネットワーク機器 on Mellanox??)

Mellanox OpenEthernet (俺々ネットワーク機器 on Mellanox??)

More in: Technology
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
1,516
On Slideshare
1,454
From Embeds
62
Number of Embeds
1

Actions

Shares
Downloads
11
Comments
0
Likes
1

Embeds 62

https://twitter.com 62

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. メラノックステクノロジーズジャパン株式会社 シニアシステムエンジニア 友永 和総 (@kz_tomo) VYATTA USERS MEETING Autumn 2013 - 2013年10月11日 The Generation of Open Ethernet ※本内容は予告無く変更となることがあります。
  • 2. © 2013 Mellanox Technologies 2 自己紹介:友永 和総(ともなが かずさ) 現在: メラノックスSEとして活動中(InfiniBand及びEthernet) • 一部OEM、エンドユーザー、チャネルを担当 • プリセールス、POCサポート等々 • イスラエル開発センターへ入社1年で3回出張  前職 エンタープライズストレージ開発@日系電機メーカー • FibreChannel、iSCSIストレージ用ドライバ開発 • I/Oパス周辺ファームウェア開発(ストレージ仮想化レイヤ等) • 次世代新技術研究開発 エンタープライズ製品のプロダクトマーケティング@外資HWベンダ • サーバー、ストレージ、ネットワーク
  • 3. © 2013 Mellanox Technologies 3 Leading Supplier of End-to-End Interconnect Solutions Virtual Protocol Interconnect Storage Front / Back-End Server / Compute Switch / Gateway 56G IB & FCoIB 56G InfiniBand 10/40/56GbE & FCoE 10/40/56GbE Virtual Protocol Interconnect Host/Fabric SoftwareICs Switches/GatewaysAdapter Cards Cables/Modules Comprehensive End-to-End InfiniBand and Ethernet Portfolio
  • 4. © 2013 Mellanox Technologies 4 Mellanox InfiniBand Paves the Road to Exascale
  • 5. © 2013 Mellanox Technologies 5 The Most Efficient Scale-out Interconnect (NASA Goddard) 4,000-node Cluster, Mellanox end-to-end InfiniBand Solutions Mellanox Orca Switch
  • 6. © 2013 Mellanox Technologies 6 The Most Efficient Scale-out Interconnect (NASA Goddard) 4,000-node Cluster, Mellanox end-to-end InfiniBand Solutions Mellanox Orca Switch HPCクラスタ ガッチガチの世界 ↓ 裾野を広げる取り組みを推進中 (最強の性能とコストパフォーマンスを エンタープライズ/データセンターへ)
  • 7. © 2013 Mellanox Technologies 7 高速インターコネクトの適用分野拡大 写真出典:wikipedia HPC スパコン 自動車・・・レース(最先端市場)で培った技術をフィードバック コンピュータの世界でも・・・ 主としてHPCの世界で使われていた高速インターコネクトが企業向け環境にも広まってきた 高スループット、低レイテンシー、低消費電力 Web 2.0 クラウド 仮想化 スケール アウト Big Data データ センター
  • 8. © 2013 Mellanox Technologies 8 ネットワークスイッチの構成要素  データプレーン: パケット処理と送受信 • ネットワークスイッチとエンドポイントの状態に基づきパケットフォワーディング実行 • 例: IP、TCP、Ethernet • 時間的な基準軸:短い(パケット単位)  コントロールプレーン: ネットワークスイッチ内の状態確立 • パケットフォワーディングの方法と宛先を決定 • 例:ルーティングテーブル、トラフィック状況、ファイアウォール • 時間的な基準軸:長い(イベント単位) スイッチ API ネットワー クコント ローラ アプリケー ション CPU アセンブラ OS アプリケー ション コンピュータ ネットワーク コンピュータとネットワークとの対応
  • 9. © 2013 Mellanox Technologies 9 アーキテクチャの進化~フレキシブル、ニーズ対応、高性能 画像出典:Wikipedia Vendor Lock-Down Slow development
  • 10. © 2013 Mellanox Technologies 10 アーキテクチャの進化~フレキシブル、ニーズ対応、高性能 画像出典:Wikipedia Welcome to the Generation of Open Ethernet User Freedom Vendor Lock-Down Self-Enhancing Slow development High Performance HW
  • 11. © 2013 Mellanox Technologies 11  VPI (Virtual Protocol Interconnect) テクノロジー • InfiniBandとEthernetが同一ASICで動作 • ポート単位でInfiniBand/Ethernetをソフトウェア的に設定可能  高スループット、低レイテンシー、超低消費電力(Ultra Low Power)  RDMA (Remote Direct Memory Access) 対応、高速データ転送 • CPUゼロコピー • カーネルバイパス メラノックス社のコアテクノロジー : 高性能・高集積ASIC 3.0 x8 17mm 45mm InfiniBand/Ethernet InfiniBand/Ethernet 2 x 56Gbps Ethernet mode: 1/10/40/56GbE 144組のネットワークSerDesを搭載 36 x 40/56GbE 64 x 10GbE 48 x 10GbE + 12 x 40/56GbE Ethernet mode: 1/10/40/56GbE • InfiniBand or Ethernet • InfiniBand + Ethernet • InfiniBand / Ethernet Bridging 36 x 40GbE: 83W 64 x 10GbE: 63W (100% load power) 2pt 40GbE Typ power: 7.9W + High Performance HW
  • 12. © 2013 Mellanox Technologies 12 オープンソースで新たなソリューション/トレンド/ テクノロジーを推進 差異化、付加価値、コミュニティ活動すべてがデフォルト仕様
  • 13. © 2013 Mellanox Technologies 13 Open Ethernet Solutions Open Source Software Ethernet Switch SDK 3rd Party Vendor Software Ethernet Switch SDK Switch Vendor Software Open Source Based Ethernet Switch
  • 14. © 2013 Mellanox Technologies 14 Linux Kernel オープンなスイッチプラットフォーム  フレキシビリティを最大化するオープンなアーキテクチャ • Linuxベース、サーバーと同様な構成 • 伝統的なネットワーク構成にデータセンターアプリケーションを統合  ネットワークコストを削減 • 高価なベンダ製ソフトウェアスタックを置き換え • コスト効率のよいハードウェア • 高い性能  革新的なSDN技術でベンダ依存性を最小化 • ルーティング:Quagga、Bird • ネットワーク管理:OpenStack、OpenFlow • 自動化ツール:Chef、Puppet OpenFlow Agent SDK Chassis Manager Routing StackOther QUAGGA
  • 15. © 2013 Mellanox Technologies 15  Highest Capacity in 1RU • From 12 QSFP to 36 QSFP • 64 x 10GbE  Unique Value Proposition • VPI • 56GbE • End to end solution 参考:メラノックスのイーサネットスイッチラインアップ SX1036 : 36x40GbE / 1U The Ideal 40GbE ToR/Aggregation SX1024 : 12x40GbE+48x10GbE / 1U Non-blocking 10GbE 40GbE ToR SX1016 : 64x10GbE / 1U Highest density 10GbE ToR  Lowest Latency • 220ns L2 latency • 330ns L3 latency  Lowest Power – 0.06W/Gbps • 2.3W per 40GbE interface • 0.6W per 10GbE of throughput SX1012 : 12x40GbE or Up to 48x10GbE / 1U half-size Ideal storage/Database 10/40GbE Switch
  • 16. © 2013 Mellanox Technologies 16 Leading The Generation of Open Ethernet