友永 和総/Kazusa Tomonaga (@kz_tomo ) – Sr. System Engineer, Mellanox Japan
VIOPS09 – 2014年7月4日
圧倒的なコストパフォーマンスを実現する
クラウドアーキテクチャの秘密
© 2014 Mellanox Technologies 2
自己紹介 – 友永 和総(ともなが かずさ)(Twitter ID:@kz_tomo)
~2010
ディスクストレージシステムの研究開発
• ストレージファームウェア開発
• ストレージネットワークドライバ開発(FibreChannel、iSCSI)
• ブロックレベルストレージ仮想化、階層化システム
• 海外特許含め、ストレージ関連特許(登録・出願)多数あり
プロダクトマーケティングマネージャ
• グローバルチーム所属(アジアパシフィックチーム、日本担当)
• サーバー及びストレージの製品マーケティングを担当
~2012
~Now
シニアシステムエンジニア(兼 テクニカルマーケティング)
• エンドユーザー、チャネル、OEM(グローバル、国内ベンダ)を幅広く担当
• クラウド、仮想化、HPC、ストレージ(OEM開発サポート)
• Ethernet、InfiniBand
• イベント/カンファレンス等での技術マーケティング、製品プロモーション
(技術関連を幅広く担当しています)
R&D Storage - Firmware & Drivers, Performance Analysis
Product Marketing – Server & Storage, APJ Team
System Engineer / Technical Marketing – Ethernet & InfiniBand
© 2014 Mellanox Technologies 3
メラノックス概要
 サーバとストレージの広帯域/低遅延インターコネクトのリーディングベンダー
• FDR 56Gb/s InfiniBand and 10/40/56GbE
• Reduces application wait-time for data
• Dramatically increases ROI on data center infrastructure
 Company headquarters:
• Yokneam, Israel; Sunnyvale, California
• ~1,432 employees* worldwide
 Solid financial position
• FY13 revenue of $390.9M
• 1Q14 revenue of $98.7M
• 2Q14 guidance ~$100M to $105M
• Cash + investments @ 3/31/14 = $340.1M
Ticker: MLNX
* As of March 2014
© 2014 Mellanox Technologies 4
DB/Enterprise Cloud Web 2.0StorageBig Data
40Gbps以上の高速ネットワークをEnd-to-Endで提供
HCA/NIC用コントローラやスイッチ用ASICを全て自社開発
圧倒的なコストパフォーマンスを提供
シリコン スイッチ
ゲートウェイ
アダプタカード ケーブル
モジュール
InfiniBandとEthernet両方に対応可能な製品ラインナップをEnd-to-Endで提供
Metro / WAN管理・高速化ソフトウェア
© 2014 Mellanox Technologies 5
HPCでの動向とクラウドへの応用
HPC: High Performance Computing
© 2014 Mellanox Technologies 6
メラノックス製品適用事例 - HPC
http://community.mellanox.com/community/connect/news-events/blog/2013/12/10/the-university-of-cambridge-chooses-mellanox-fdr-infiniband-to-accelerate-uk-s-fastest-academic-cluster-further-space-research
© 2014 Mellanox Technologies 7
メラノックス製品適用事例 – PetaFlops級世界最先端のスパコン
Accelerating Half of the World’s Petascale Supercomputers (Examples)
© 2014 Mellanox Technologies 8
スパコン性能トレンド – 近年指数関数的に合計CPU数と性能が向上
 Explosive high-performance computing market growth
 Clusters continue to dominate with 85% of the TOP500 list
78% CAGR38% CAGR
Mellanox InfiniBand solutions provide the highest systems utilization in the TOP500
for both high-performance computing and clouds
Source : ISC’14, June 2014
© 2014 Mellanox Technologies 9
PetaFlopsクラスのスパコンインターコネクト
 Mellanox InfiniBand is the interconnect of choice for Petascale computing
• Accelerates 50% of the sustained Petaflop systems (24 systems out of 48)
Source : ISC’14, June 2014
© 2014 Mellanox Technologies 10
 スパコンでの効率
• 計算実行効率(Efficiency) [%]
- CPU論理ピーク性能に対して、実際にどの程度
CPU を使いきれるか
• 電力効率(Power Efficiency) [MFLOPS/W]
- 1ワット当たりの計算性能
• コスト効率(Cost Efficiency) [MFLOPS/$]
- 単位コスト当たりの計算性能
スパコンでの最重要要素「効率」とクラウドでの対応
 クラウドでの効率
• クラウド実行効率 [%]
- クラウドのCPU合計性能に対して、実際にど
の程度CPU が使われているか
• 電力効率(Power Efficiency) [#VMs/W]
- 1ワット当たりのVM稼動数
• コスト効率(Cost Efficiency) [#VMs/$]
- 単位コスト当たりのVM稼動数
仮定:
- 1VM当たりのサイジングが一定
- 1VM当たりのワークロードが一定
- 1VM当たりの提供価格が一定
クラウドサービスの収益
=VM当たり提供価格 – VM当たり運用コスト(VM当たり導入コストを平準化したもの含む)
クラウドでの効率は、収益に直結するため、HPC以上に重要!
© 2014 Mellanox Technologies 11
スパコンの実行効率とインターコネクト分布
 TOP500 systems listed according to their efficiency
 InfiniBand is the key element responsible for the highest system efficiency; in average 30% higher than 10GbE
 Mellanox delivers efficiencies of more than 99% with InfiniBand
Average Efficiency
• InfiniBand: 87%
• Cray: 79%
• 10GbE: 67%
• GigE: 40%
Source : ISC’14, June 2014
© 2014 Mellanox Technologies 12
 Mellanox InfiniBand connects the most efficient system on the list
• 24 of the top25 most efficient systems, all of top 17 most efficient system
 Enabling a record system efficiency of 99.8%, only 0.2% less than the theoretical limit!
スパコン実行効率トップ25の24/25がInfiniBand
Source : ISC’14, June 2014
© 2014 Mellanox Technologies 13
スパコン電力効率ランキング「Green500」
 TOP10のうち9/10が
InfiniBand
Source : http://www.green500.org/lists/green201311
© 2014 Mellanox Technologies 14
クラウドでの適用状況
© 2014 Mellanox Technologies 15
Exponential Data Growth – Best Platforms Needed
We Live in a World of Data
More DataMore ApplicationsMore Devices
© 2014 Mellanox Technologies 16
Mellanox Enables the Use of Data
To Enable the Use of Data
Businesses Turn to
In the World of Data
© 2014 Mellanox Technologies 17
クラウドデータセンター、Web2.0企業の最新状況
10Gb/s 40/56Gb/s1Gb/s
The Future Depends on Mellanox
© 2014 Mellanox Technologies 18
2010年 – ISC(スパコンの学会)はクラウドに関する
学術カンファレンス ISC Cloud’10を初開催
 The Cloud Conference for
Industry and Academia
 ISC Cloud Computing
Conference 2010 focused on
practical solutions by bridging
the gap between research and
industry in cloud computing.
(ISCクラウドコンピューティング
カンファレンス2010は、クラウド
コンピューティングに関する研究
と産業の間のギャップを繋ぐ実用
的なソリューションを目的として
開催された)
http://www.isc-events.com/cloud10/
© 2014 Mellanox Technologies 19
Windows Azure Pack – Powered by Mellanox
 Windows Server 2012 R2 SMB 3.0
• 5X Faster access to Storage*
• 10X Live migration acceleration*
 Overlay network offload
• 2X NVGRE acceleration
 Boost MS SQL performance
• 10X More transactions per second*
• 50X faster data query with In-Memory
technology
Windows Azure Pack
Service ProvidersPrivate Cloud
Public Cloud
Azure Virtual Machines
Windows Azure Pack
* RDMA vs. TCP/IP
© 2014 Mellanox Technologies 20
Microsoft Azure – キーノートセッションでの発表
“To make storage cheaper we use lots more network!
How do we make Azure Storage scale? RoCE (RDMA over Ethernet) enabled at 40GbE
for Windows Azure Storage, achieving massive COGS savings”
(ストレージコストを低減するため、我々はネットワーク技術を
活用している。40GbE RoCE(RDMA over Ethernet)をAzure
Storageで使用し、劇的なコスト削減を実現している。)
RDMA at 40GbE Enables Massive Cloud Saving for Microsoft Azure
Microsoft Keynote
Albert Greenberg
SDN in Azure Infrastructure
Microsoft Keynote at Open Networking Summit 2014 on RDMA
© 2014 Mellanox Technologies 21
Microsoft Azure PackではHWオフロード技術を様々な箇所に採用
 RDMA
• ストレージI/O
- SMB Direct
- 約5倍高速化
• VMライブマイグレーション
- 約10倍高速化
• SQL DBパフォーマンス
- 約10倍高速化
 NVGREオフロード
• 約2倍高速化
10X Faster VM Live Migration
2X Higher NVGRE
Virtual Overlay Network
Throughput
10X Query Performance
SQL Server
5X Storage Throughput
with SMB Direct
Storage Solutions
※HWオフロードなしに比べた場合の性能向上率
© 2014 Mellanox Technologies 22
CloudX is the Most Efficient Cloud Platform
The Platform for Creating the Applications of Tomorrow
Cloud
Lower Your IT Cost by 50%!
© 2014 Mellanox Technologies 23
VXLANオフロード+ミドクラとの協業 – Shownet
 先月開催されたInterop Tokyo 2014のShownetにてミドクラMidonetとの接続デモを実演
 Mellanox CloudXアーキテクチャの選択肢としてのソリューション化を推進中
Configuration at Shownet
http://www.mellanox.co.jp/news/press20140609_MLNX_CloudX.html
VXLAN Offload with Midokura Midonet
© 2014 Mellanox Technologies 24
クラウドシステムの効率を高めるためのポイント
 性能をスケールさせる
システム規模、投資規模、運用コスト
システム性能
VM数
スケールしないシステム
(ボトルネックが存在)
スケールするシステム
 ボトルネックのブーメラン状態からの脱出
• ストレージ、ネットワークを高性能なものを使う
CPU利用率UP、統合率UP
ストレージI/OやネットワークI/Oを実行するCPU負荷もUP
CPUボトルネック発生し、統合率が制限される(オーバー
レイネットワーク等、ネットワーク仮想化を行う場合はよ
り顕著)
性能スケールしない
• CPU使用率を抑えながら、ストレージ性能、ネットワーク
性能を高める工夫が必要
ハードウェアオフロード:
・ストレージI/OのRDMA処理
・オーバーレイネットワークのHWオフロード処理
※HPCシステムではハードウェアオフロード技術活用で
性能スケールする取り組みが続けられている
(例:RDMA、MPI通信オフロード、GPUオフロード処理)
さらに優れたシステム
ネットワーク
スループット
CPU使用率
オーバーレイなし
1Gbps 10Gbps 40Gbps
オーバーレイ使用(HWオフロードなし)
CPUボトルネック
RDMA
オーバーレイ使用(HWオフロード)
© 2014 Mellanox Technologies 25
まとめ
 HPCでの効率向上、性能スケーリングに対する近年の取り組みがクラウドへ応用さ
れている
クラウドデータセンターがHPCシステムそっくりになってきている
 HPC技術をベースにしたメラノックスのEthernet製品へのニーズ拡大中
• InfiniBandで培ったHPCインターコネクトの技術がEthernetでも利用可能に
• 主要クラウドデータセンターでの導入が広まっている
 ネットワーク性能を高めることで物理マシン当たりのVM数を倍増できる
• 10GbE  40GbEの帯域向上は4倍だが、コストは2倍にもならないくらい
- サーバスペックを倍増させることでVM当たりのコスト、VM当たりの電力を半減できる
 サーバ価格は一般的にサイジングに比例しない
(例:300万円で10VM (30万円/VM)、360万円で20VM(18万円/VM)など(ライセンス、保守費込み))
• RDMA、オーバーレイオフロード活用でさらに統合率アップ
効率が良く、性能スケールするシステムは規模の大小を問わない
• 市販のハードウェアで構築可能、価格も高くない
• スモールスタート可能
• 決してMicrosoft Azure等が特別ではない、誰でも真似出来る
© 2014 Mellanox Technologies 26
参考情報
© 2014 Mellanox Technologies 27
SC14 Update – June 22-26, 2014 @ Leipzig, Gernamy
36-port EDR 100Gb/s InfiniBand Switch Systems
648-Port EDR 100Gb/s InfiniBand Director Switch
SB7700/SB7790
CS7500
シングルチップで100Gb/s 36ポートを実現
© 2014 Mellanox Technologies 28
Paving The Road for 100Gb/s – Cables
Copper (Passive, Active) Optical Cables (VCSEL) Silicon Photonics
100Gb/s cables demo
at OFC conference
March ‘14
100Gb/s Cables
Demonstrated March’14
© 2014 Mellanox Technologies 29
The Speed of Data Mandates the Use of Data
20Gbs 40Gbs 56Gbs 100Gbs
2000 202020102005 2015
200Gbs10Gbs
Keeping You One Generation Ahead
Gbs – Gigabit per second
Enabling the Use of Data
Mellanox Roadmap of Data Speed
© 2014 Mellanox Technologies 30
Cloud Advisory Council
 15 founding members including Mellanox
 Over 90 members
 Mission
• Outreach and research around Cloud computing
• Development of next generation Cloud architecture
› Providing open specification for Cloud infrastructures
› Publications of best practices for optimizing Cloud efficiency and
utilization
› Enable ease-of-use with comprehensive Cloud management and
tools
• Publish Cloud best practices
• Groups: Open Source Eco-System | Cloud500| High
Performance Cloud
• Webinars, workshops, events … http://cloudadvisorycouncil.com/members.php
© 2014 Mellanox Technologies 31
Cloud Advisory Council Members
© 2014 Mellanox Technologies 32
Cloud500 – Ranking the Top 500 IaaS Cloud Providers
 CloudPack Test Suite
• 3 main test categories: System, RAM, and CPU
• Dozens of real live cloud application tests
 The inaugural list will be released at a cloud event in September 2014
Rank your cloud Today !
© 2014 Mellanox Technologies 33
Mellanox Community 英語ですが質問が気軽に出来ます
http://community.mellanox.com/
アップデートメールも届きます。
是非気軽に登録してみてください。
Thank You

VIOPS09: 圧倒的なコストパフォーマンスを実現するクラウドアーキテクチャの秘密

  • 1.
    友永 和総/Kazusa Tomonaga(@kz_tomo ) – Sr. System Engineer, Mellanox Japan VIOPS09 – 2014年7月4日 圧倒的なコストパフォーマンスを実現する クラウドアーキテクチャの秘密
  • 2.
    © 2014 MellanoxTechnologies 2 自己紹介 – 友永 和総(ともなが かずさ)(Twitter ID:@kz_tomo) ~2010 ディスクストレージシステムの研究開発 • ストレージファームウェア開発 • ストレージネットワークドライバ開発(FibreChannel、iSCSI) • ブロックレベルストレージ仮想化、階層化システム • 海外特許含め、ストレージ関連特許(登録・出願)多数あり プロダクトマーケティングマネージャ • グローバルチーム所属(アジアパシフィックチーム、日本担当) • サーバー及びストレージの製品マーケティングを担当 ~2012 ~Now シニアシステムエンジニア(兼 テクニカルマーケティング) • エンドユーザー、チャネル、OEM(グローバル、国内ベンダ)を幅広く担当 • クラウド、仮想化、HPC、ストレージ(OEM開発サポート) • Ethernet、InfiniBand • イベント/カンファレンス等での技術マーケティング、製品プロモーション (技術関連を幅広く担当しています) R&D Storage - Firmware & Drivers, Performance Analysis Product Marketing – Server & Storage, APJ Team System Engineer / Technical Marketing – Ethernet & InfiniBand
  • 3.
    © 2014 MellanoxTechnologies 3 メラノックス概要  サーバとストレージの広帯域/低遅延インターコネクトのリーディングベンダー • FDR 56Gb/s InfiniBand and 10/40/56GbE • Reduces application wait-time for data • Dramatically increases ROI on data center infrastructure  Company headquarters: • Yokneam, Israel; Sunnyvale, California • ~1,432 employees* worldwide  Solid financial position • FY13 revenue of $390.9M • 1Q14 revenue of $98.7M • 2Q14 guidance ~$100M to $105M • Cash + investments @ 3/31/14 = $340.1M Ticker: MLNX * As of March 2014
  • 4.
    © 2014 MellanoxTechnologies 4 DB/Enterprise Cloud Web 2.0StorageBig Data 40Gbps以上の高速ネットワークをEnd-to-Endで提供 HCA/NIC用コントローラやスイッチ用ASICを全て自社開発 圧倒的なコストパフォーマンスを提供 シリコン スイッチ ゲートウェイ アダプタカード ケーブル モジュール InfiniBandとEthernet両方に対応可能な製品ラインナップをEnd-to-Endで提供 Metro / WAN管理・高速化ソフトウェア
  • 5.
    © 2014 MellanoxTechnologies 5 HPCでの動向とクラウドへの応用 HPC: High Performance Computing
  • 6.
    © 2014 MellanoxTechnologies 6 メラノックス製品適用事例 - HPC http://community.mellanox.com/community/connect/news-events/blog/2013/12/10/the-university-of-cambridge-chooses-mellanox-fdr-infiniband-to-accelerate-uk-s-fastest-academic-cluster-further-space-research
  • 7.
    © 2014 MellanoxTechnologies 7 メラノックス製品適用事例 – PetaFlops級世界最先端のスパコン Accelerating Half of the World’s Petascale Supercomputers (Examples)
  • 8.
    © 2014 MellanoxTechnologies 8 スパコン性能トレンド – 近年指数関数的に合計CPU数と性能が向上  Explosive high-performance computing market growth  Clusters continue to dominate with 85% of the TOP500 list 78% CAGR38% CAGR Mellanox InfiniBand solutions provide the highest systems utilization in the TOP500 for both high-performance computing and clouds Source : ISC’14, June 2014
  • 9.
    © 2014 MellanoxTechnologies 9 PetaFlopsクラスのスパコンインターコネクト  Mellanox InfiniBand is the interconnect of choice for Petascale computing • Accelerates 50% of the sustained Petaflop systems (24 systems out of 48) Source : ISC’14, June 2014
  • 10.
    © 2014 MellanoxTechnologies 10  スパコンでの効率 • 計算実行効率(Efficiency) [%] - CPU論理ピーク性能に対して、実際にどの程度 CPU を使いきれるか • 電力効率(Power Efficiency) [MFLOPS/W] - 1ワット当たりの計算性能 • コスト効率(Cost Efficiency) [MFLOPS/$] - 単位コスト当たりの計算性能 スパコンでの最重要要素「効率」とクラウドでの対応  クラウドでの効率 • クラウド実行効率 [%] - クラウドのCPU合計性能に対して、実際にど の程度CPU が使われているか • 電力効率(Power Efficiency) [#VMs/W] - 1ワット当たりのVM稼動数 • コスト効率(Cost Efficiency) [#VMs/$] - 単位コスト当たりのVM稼動数 仮定: - 1VM当たりのサイジングが一定 - 1VM当たりのワークロードが一定 - 1VM当たりの提供価格が一定 クラウドサービスの収益 =VM当たり提供価格 – VM当たり運用コスト(VM当たり導入コストを平準化したもの含む) クラウドでの効率は、収益に直結するため、HPC以上に重要!
  • 11.
    © 2014 MellanoxTechnologies 11 スパコンの実行効率とインターコネクト分布  TOP500 systems listed according to their efficiency  InfiniBand is the key element responsible for the highest system efficiency; in average 30% higher than 10GbE  Mellanox delivers efficiencies of more than 99% with InfiniBand Average Efficiency • InfiniBand: 87% • Cray: 79% • 10GbE: 67% • GigE: 40% Source : ISC’14, June 2014
  • 12.
    © 2014 MellanoxTechnologies 12  Mellanox InfiniBand connects the most efficient system on the list • 24 of the top25 most efficient systems, all of top 17 most efficient system  Enabling a record system efficiency of 99.8%, only 0.2% less than the theoretical limit! スパコン実行効率トップ25の24/25がInfiniBand Source : ISC’14, June 2014
  • 13.
    © 2014 MellanoxTechnologies 13 スパコン電力効率ランキング「Green500」  TOP10のうち9/10が InfiniBand Source : http://www.green500.org/lists/green201311
  • 14.
    © 2014 MellanoxTechnologies 14 クラウドでの適用状況
  • 15.
    © 2014 MellanoxTechnologies 15 Exponential Data Growth – Best Platforms Needed We Live in a World of Data More DataMore ApplicationsMore Devices
  • 16.
    © 2014 MellanoxTechnologies 16 Mellanox Enables the Use of Data To Enable the Use of Data Businesses Turn to In the World of Data
  • 17.
    © 2014 MellanoxTechnologies 17 クラウドデータセンター、Web2.0企業の最新状況 10Gb/s 40/56Gb/s1Gb/s The Future Depends on Mellanox
  • 18.
    © 2014 MellanoxTechnologies 18 2010年 – ISC(スパコンの学会)はクラウドに関する 学術カンファレンス ISC Cloud’10を初開催  The Cloud Conference for Industry and Academia  ISC Cloud Computing Conference 2010 focused on practical solutions by bridging the gap between research and industry in cloud computing. (ISCクラウドコンピューティング カンファレンス2010は、クラウド コンピューティングに関する研究 と産業の間のギャップを繋ぐ実用 的なソリューションを目的として 開催された) http://www.isc-events.com/cloud10/
  • 19.
    © 2014 MellanoxTechnologies 19 Windows Azure Pack – Powered by Mellanox  Windows Server 2012 R2 SMB 3.0 • 5X Faster access to Storage* • 10X Live migration acceleration*  Overlay network offload • 2X NVGRE acceleration  Boost MS SQL performance • 10X More transactions per second* • 50X faster data query with In-Memory technology Windows Azure Pack Service ProvidersPrivate Cloud Public Cloud Azure Virtual Machines Windows Azure Pack * RDMA vs. TCP/IP
  • 20.
    © 2014 MellanoxTechnologies 20 Microsoft Azure – キーノートセッションでの発表 “To make storage cheaper we use lots more network! How do we make Azure Storage scale? RoCE (RDMA over Ethernet) enabled at 40GbE for Windows Azure Storage, achieving massive COGS savings” (ストレージコストを低減するため、我々はネットワーク技術を 活用している。40GbE RoCE(RDMA over Ethernet)をAzure Storageで使用し、劇的なコスト削減を実現している。) RDMA at 40GbE Enables Massive Cloud Saving for Microsoft Azure Microsoft Keynote Albert Greenberg SDN in Azure Infrastructure Microsoft Keynote at Open Networking Summit 2014 on RDMA
  • 21.
    © 2014 MellanoxTechnologies 21 Microsoft Azure PackではHWオフロード技術を様々な箇所に採用  RDMA • ストレージI/O - SMB Direct - 約5倍高速化 • VMライブマイグレーション - 約10倍高速化 • SQL DBパフォーマンス - 約10倍高速化  NVGREオフロード • 約2倍高速化 10X Faster VM Live Migration 2X Higher NVGRE Virtual Overlay Network Throughput 10X Query Performance SQL Server 5X Storage Throughput with SMB Direct Storage Solutions ※HWオフロードなしに比べた場合の性能向上率
  • 22.
    © 2014 MellanoxTechnologies 22 CloudX is the Most Efficient Cloud Platform The Platform for Creating the Applications of Tomorrow Cloud Lower Your IT Cost by 50%!
  • 23.
    © 2014 MellanoxTechnologies 23 VXLANオフロード+ミドクラとの協業 – Shownet  先月開催されたInterop Tokyo 2014のShownetにてミドクラMidonetとの接続デモを実演  Mellanox CloudXアーキテクチャの選択肢としてのソリューション化を推進中 Configuration at Shownet http://www.mellanox.co.jp/news/press20140609_MLNX_CloudX.html VXLAN Offload with Midokura Midonet
  • 24.
    © 2014 MellanoxTechnologies 24 クラウドシステムの効率を高めるためのポイント  性能をスケールさせる システム規模、投資規模、運用コスト システム性能 VM数 スケールしないシステム (ボトルネックが存在) スケールするシステム  ボトルネックのブーメラン状態からの脱出 • ストレージ、ネットワークを高性能なものを使う CPU利用率UP、統合率UP ストレージI/OやネットワークI/Oを実行するCPU負荷もUP CPUボトルネック発生し、統合率が制限される(オーバー レイネットワーク等、ネットワーク仮想化を行う場合はよ り顕著) 性能スケールしない • CPU使用率を抑えながら、ストレージ性能、ネットワーク 性能を高める工夫が必要 ハードウェアオフロード: ・ストレージI/OのRDMA処理 ・オーバーレイネットワークのHWオフロード処理 ※HPCシステムではハードウェアオフロード技術活用で 性能スケールする取り組みが続けられている (例:RDMA、MPI通信オフロード、GPUオフロード処理) さらに優れたシステム ネットワーク スループット CPU使用率 オーバーレイなし 1Gbps 10Gbps 40Gbps オーバーレイ使用(HWオフロードなし) CPUボトルネック RDMA オーバーレイ使用(HWオフロード)
  • 25.
    © 2014 MellanoxTechnologies 25 まとめ  HPCでの効率向上、性能スケーリングに対する近年の取り組みがクラウドへ応用さ れている クラウドデータセンターがHPCシステムそっくりになってきている  HPC技術をベースにしたメラノックスのEthernet製品へのニーズ拡大中 • InfiniBandで培ったHPCインターコネクトの技術がEthernetでも利用可能に • 主要クラウドデータセンターでの導入が広まっている  ネットワーク性能を高めることで物理マシン当たりのVM数を倍増できる • 10GbE  40GbEの帯域向上は4倍だが、コストは2倍にもならないくらい - サーバスペックを倍増させることでVM当たりのコスト、VM当たりの電力を半減できる  サーバ価格は一般的にサイジングに比例しない (例:300万円で10VM (30万円/VM)、360万円で20VM(18万円/VM)など(ライセンス、保守費込み)) • RDMA、オーバーレイオフロード活用でさらに統合率アップ 効率が良く、性能スケールするシステムは規模の大小を問わない • 市販のハードウェアで構築可能、価格も高くない • スモールスタート可能 • 決してMicrosoft Azure等が特別ではない、誰でも真似出来る
  • 26.
    © 2014 MellanoxTechnologies 26 参考情報
  • 27.
    © 2014 MellanoxTechnologies 27 SC14 Update – June 22-26, 2014 @ Leipzig, Gernamy 36-port EDR 100Gb/s InfiniBand Switch Systems 648-Port EDR 100Gb/s InfiniBand Director Switch SB7700/SB7790 CS7500 シングルチップで100Gb/s 36ポートを実現
  • 28.
    © 2014 MellanoxTechnologies 28 Paving The Road for 100Gb/s – Cables Copper (Passive, Active) Optical Cables (VCSEL) Silicon Photonics 100Gb/s cables demo at OFC conference March ‘14 100Gb/s Cables Demonstrated March’14
  • 29.
    © 2014 MellanoxTechnologies 29 The Speed of Data Mandates the Use of Data 20Gbs 40Gbs 56Gbs 100Gbs 2000 202020102005 2015 200Gbs10Gbs Keeping You One Generation Ahead Gbs – Gigabit per second Enabling the Use of Data Mellanox Roadmap of Data Speed
  • 30.
    © 2014 MellanoxTechnologies 30 Cloud Advisory Council  15 founding members including Mellanox  Over 90 members  Mission • Outreach and research around Cloud computing • Development of next generation Cloud architecture › Providing open specification for Cloud infrastructures › Publications of best practices for optimizing Cloud efficiency and utilization › Enable ease-of-use with comprehensive Cloud management and tools • Publish Cloud best practices • Groups: Open Source Eco-System | Cloud500| High Performance Cloud • Webinars, workshops, events … http://cloudadvisorycouncil.com/members.php
  • 31.
    © 2014 MellanoxTechnologies 31 Cloud Advisory Council Members
  • 32.
    © 2014 MellanoxTechnologies 32 Cloud500 – Ranking the Top 500 IaaS Cloud Providers  CloudPack Test Suite • 3 main test categories: System, RAM, and CPU • Dozens of real live cloud application tests  The inaugural list will be released at a cloud event in September 2014 Rank your cloud Today !
  • 33.
    © 2014 MellanoxTechnologies 33 Mellanox Community 英語ですが質問が気軽に出来ます http://community.mellanox.com/ アップデートメールも届きます。 是非気軽に登録してみてください。
  • 34.