• Like
第3回「マイクロソフトの仮想化と、クラウドの今後」(2011/06/16 on しすなま!) ②IBM資料
Upcoming SlideShare
Loading in...5
×

第3回「マイクロソフトの仮想化と、クラウドの今後」(2011/06/16 on しすなま!) ②IBM資料

  • 354 views
Uploaded on

下記のしすなま!録画と併せてご覧ください。資料・録画の内容は生放送時点のものです。 …

下記のしすなま!録画と併せてご覧ください。資料・録画の内容は生放送時点のものです。
第3回「マイクロソフトの仮想化と、クラウドの今後」(2011/06/16)
<出演①> 高添 修 様 日本マイクロソフト(株) エバンジェリスト
<出演②> 渡邉 源太 日本アイ・ビー・エム(株) システムx事業部 テクニカル・セールス
http://www.ustream.tv/recorded/15414244

More in: Technology
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
354
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
4
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. © 2010 IBM Corporation System x部(生!) 2010/11/4 しすなま! マイクロソフトの仮想化と、クラウドの今後 日本アイ・ビー・エム株式会社 System x事業部 渡邉源太
  • 2. © 2010 IBM Corporation System x部(生!) 2 IBM Private Cloud Offering with Hyper-V Hyper-V 2.0構成のポイント Hyper-V on eX5 アジェンダ
  • 3. © 2010 IBM Corporation System x部(生!) IBM Private Cloud Offering with Hyper-V
  • 4. © 2010 IBM Corporation System x部(生!) 4 PCO x/e SMB Pro Configuration
  • 5. © 2010 IBM Corporation System x部(生!) 5 PCO x/mi Mainstream Configuration
  • 6. © 2010 IBM Corporation System x部(生!) 6 System x PCO ネットワーク構成 – 概要
  • 7. © 2010 IBM Corporation System x部(生!) 7 System x PCO ネットワーク構成 - VLAN
  • 8. © 2010 IBM Corporation System x部(生!) 8 Hyper-V環境における、iSCSI / FC 性能比較 NetApp社Data 8 IO負荷(ブロックサイズ:4KB、ランダム100%、読書比率:75:25)における、4GbFC, 1GbE iSCSI, 10GbE iSCSIの性能比較 FCとiSCSIの差は 5%程度 FCとiSCSIの差は 5%程度 FCとiSCSIの差は 5%程度 better better better IOPS 応答遅延 CPU負荷 NetApp技術文書:TR-3846 / 2010/04 Microsoft Hyper-V R2 Performance Comparison: Fibre Channel and iSCSI •4台のWindows Server 2008 R2 Hyper-V x64 環 境にて、ホストあたり8vm、合計32vmから、 IOmeterを用いた負荷性能計測 •IOmeterパラメータにて、多重度を変え、128~ 512 IOを計測 •測定サーバ •IBM x3550 (QuadCore Xeon E5420 (2.5GHz)x1) •14GB Memory •測定ストレージ •FAS3160(IBM N6060) FC 300GB 15K HDD x128 •結論 •性能差、応答遅延、CPU負荷共に、FCとiSCSI の差は5%程度 •1GbE と 10GbE の差は、僅差にて10GbEが優 れる
  • 9. © 2010 IBM Corporation System x部(生!) 9 NSeries ディスクの効率化:重複排除機能 FAS3140 controller1 IBM統合B32X3650M3 SCVMM X3550M3 LUNサイズ Total Used Avail Capacity (使用率) マウントポイント 初期値 2048GB 515GB 1532GB 25% /vol/vol2/ 重複排除後 2048GB 72GB 1975GB 4% /vol/vol2/ 64VM(mem:2GB Disk:8GB)を搭載した環境 ※別環境のテスト結果  ゲストOSが保管されているボリューム上で実行  処理時間は、約1時間40分  使用容量は515GBから72GBへ縮小(86%) ※ただし、今回の検証環境ではほぼ同様のデータを保持していたため本番を意識した場合はここまでの容量減にはならない可能性があります。
  • 10. © 2010 IBM Corporation System x部(生!) 1010 VM1 VM2 VM VM VM VSS VSS Hyper-V サービスサーバー Hyper-V サービスサーバー VM VSS Dataset backup  Dataset 単位でVMのバックアップ実行  Windows VSS を使ったオンラインバックアップ  最大127世代・255日間の保持設定  バックアップ実行後に SnapMirrorを使った リモート転送  ジョブレポートの出力 Snapshot NetApp Backup VM1 VHD VM2 VHD VM3 VHD VM4 VHD VM1 VHD VM2 VHD VM3 VHD VM4 VHD LUN 仮想化環境 管理者 管理サーバー Nseries: Snap Manager for Hyper-V SMHV 処理時間 バックアップ ( 3VM) 15分 バックアップ (64VM) 35分 リストア ( 1VM) 13分
  • 11. © 2010 IBM Corporation System x部(生!) 11 11 ルート管理 サーバ SCOM DB レポート サーバ 管理コンソール Webコンソール コマンドシェル System x BladeCenter レポートサーバ DB ACS コレクタサーバ BladeCenter AMM 管理サーバ データウェアハウス IBM Hardware Management Pack for SCOM 2007  System x, BladeCenterの統合監視が可能  SCOMにハードウェア・コンポーネントに関するナレッジが追加される IBM Hardware Management Pack for SCOM
  • 12. © 2010 IBM Corporation System x部(生!) 12 IBM Hardware Management PackによるBladeCenterの監視 障害の詳細をブレークダウンして表示することが可能
  • 13. © 2010 IBM Corporation System x部(生!) 13 IBM Hardware PRO Pack for SCVMM  SCVMMによるHyper-V管理に対する物理サーバーに関する正常性の情 報を提供  仮想環境の管理に影響するハードウェア障害および障害予測の情報を PROヒントとして提供 System Center Operations Manager System Center Virtual Machine Manager Webベース セルフUI 管理コンソール Windows PowerShell Microsoft Hyper-V VMware Active Directory IBM Hardware PRO Pack for SCVMM
  • 14. © 2010 IBM Corporation System x部(生!) 14 ハードウェア障害によるPROヒントの表示 SCVMMのPROヒントから、ハードウェアの障害に関する情報と対応策を表示 現在のところ、自動構成には対応していないため、手動で対応策を実行する必要がある
  • 15. © 2010 IBM Corporation System x部(生!) 15 IBM Redbooks IBM System x Private Cloud Offering: Solution and Component Guide http://www.redbooks.ibm.com/abstract s/redp4731.html?Open IBM System x Private Cloud Offering: Architecture and Implementation Guide http://www.redbooks.ibm.com/abstract s/redp4732.html?Open
  • 16. © 2010 IBM Corporation System x部(生!) 16 Hyper-V構成のポイント
  • 17. © 2010 IBM Corporation System x部(生!) 17 Hyper-V環境におけるNICチーミング  ホストOSの物理NICをチーミング構成にすることで、ネットワークの冗長化が可能です。  チーミングされている論理NICを、外部仮想ネットワークにバインドすることで、仮想マシンのネットワークを冗 長化することができます。 アプリケーション アプリケーション 仮想NIC 仮想NIC 物理NIC 仮想スイッチ アプリケーション 仮想マシン1 仮想マシン2 ホストOS 物理NIC 物理NIC チーミング構成 ホストOS上で、物理NICをチーミング 最新版のBACSを使用する 外部仮想ネットワークを、チーミングされた 論理NICにバインドする。
  • 18. © 2010 IBM Corporation System x部(生!) 18 Broadcom NICを使用したNICチーミング BASP (Broadcom Advanced Server Program)はHyper-V環境でのNICチーミン グをサポート Hyper-V環境で、NetXtreme IIによりNICチーミングを行うときの注意点: Hyper-V仮想ネットワークをチームに割り当てる前にチームを作成する すでにHyper-V仮想ネットワークに割り当てられているNICはチームに追加することができな い BASP virtual adapterによるVLAN taggingをHyper-V仮想ネットワークで使用することが 可能。ただし、Hyper-VによるVLAN taggingは、この構成では使用できない。Hyper-V VLAN taggingは、タグなしのBASP virtual adapterでのみ使用可能。A NICチーミングを変更するか削除するときは、まずHyper-Vマネージャーで仮想NICを使用し ているすべてのゲストOSからネットワークのバインドを削除し、構成の変更後にあらためてゲ ストOSへの仮想NICのバインドを行う Hyper-V quick migrationを使用するとネットワークの接続が切断される http://www-947.ibm.com/support/entry/portal/docdisplay?lndocid=MIGR- 5087137&brandind=5000020
  • 19. © 2010 IBM Corporation System x部(生!) 19 BASPのHyper-Vサポート詳細 Feature Supported in Windows Server 2008 Supported in Windows Server 2008 R2 Comments/Limitation Smart Load Balancing and Failover (SLB) team type Yes Yes Multi-member SLB team allowed with latest BASP6 version. Link Aggregation (IEEE 802.3ad LACP) team type Yes Yes – Generic Trunking (FEC/GEC) 802.3ad Draft Static team type Yes Yes – Failover Yes Yes – LiveLink Yes Yes – Large Send Offload (LSO) Limited* Yes *Conforms to miniport limitations outlines in Table 1. Checksum Offload (CO) Limited* Yes *Conforms to miniport limitations outlines in Table 1. TCP Offload Engine (TOE) Limited* Yes *Conforms to miniport limitations outlines in Table 1. Hyper-V VLAN over an adapter Yes Yes – Hyper-V VLAN over a teamed adapter Yes Yes – Hyper-V VLAN over a VLAN Limited* Limited* Only an untagged VLAN. Hyper-V virtual switch over an adapter Yes Yes – Hyper-V virtual switch over a teamed adapter Yes Yes – Hyper-V virtual switch over a VLAN Yes Yes – iSCSI boot No No* *Remote boot to SAN is supported.
  • 20. © 2010 IBM Corporation System x部(生!) 20 Cluster Shared Volume(CSV)  Live Migration のために実装されたフェールオーバー クラスタの新機能  ノード間で排他とならない共有ディスク  クラスタ内の複数ノードが、同時に同じ論理ユニット番号 (LUN) にアクセス可能 • Hyper-V の仮想マシンを LUN 毎に分ける必要なし  各ノードからはローカルドライブの共有フォルダとして見える • %SystemDrive%¥ClusterStorage¥VolumeX エクスプローラの画面 クラスタのどのノードからも C ドライブ配下のフォルダに見える
  • 21. © 2010 IBM Corporation System x部(生!) 21 Hyper-V Cluster Shared Volume構成上の注意点  ストレージへのパスが切断された場合、ストレージへのパスがController AからBに切り替わる  その状態で別のホストからアクセスがあるとController Aにパスがフェイルバックする  レジストリのDisableLunRebalanceを3に設定することで回避可能 ホストOS管理用 仮想マシンアクセス用 ハートビート用 CSV・Live Migration用 CSV Controller owner A →B CSV owner Hyper-V#1 Hyper-V#1 Hyper-V#2
  • 22. © 2010 IBM Corporation System x部(生!) 22 Hyper-V on eX5
  • 23. © 2010 IBM Corporation System x部(生!) 23 On-Forever :11年目を迎えたX-Architecture の系譜 23 2010 5th Generation 第1世代: 世界初! 16CPUまで拡張可能な デザイン 2001 1st Generation 2003 2nd Generation 2005 3rd Generation 2007 4th Generation 第2世代: 世界初! x86サーバーで No.1ベンチマークを達成 第3世代: 世界初! x86サーバーで ホットスワップメモリを搭載 第4世代: 世界初! TPCベンチマークで 100万tpmCを達成 第5世代: メモリ搭載量の最大化 コストの最小化 シンプルな運用管理 IBMは継続した開発で最新技術を搭載。 お客様に安定したシステム基盤を 提供してきました。 2011年4月リニューアル x3690 X5 x3850 X5 / x3950 X5 HX5 x3850 M2 xSeries 460 x3850 xSeries 445 xSeries 455 xSeries 440 xSeries 450
  • 24. © 2010 IBM Corporation System x部(生!) IBM BladeCenter HX5 IBM System x3690 X5 IBM System x3850 X5 エンタープライズX-アーキテクチャー のブレード・サーバーへの展開 エンタープライズ・クラスのアーキテ クチャーを利用可能となる、新たな エントリー・ポイント これまでになかったスケーラビリ ティーによる、大規模ワークロード/ 仮想マシンの集約    第4世代まで: x86サーバーにおける4U/ 4ソケット・ スケーラブル・サーバーの リーダーシップ 第5世代で展開される、新たなエンタープライズX-アーキテクチャー搭載製品 MAX5  メモリー容量の最大化と、 より高いパフォーマンス・ 構成の柔軟性を実現 24
  • 25. © 2010 IBM Corporation System x部(生!) eX5 で実現する多彩な構成 x3690 X5 (2プロセッサー 32 DIMM) x3850 X5 (4プロセッサー 64 DIMM) 2CPU 4CPU x3690 X5 w/ MAX5 (2プロセッサー 64 DIMM) x3850 X5 w/ MAX5 (4プロセッサー 96 DIMM) メモリ増強型 8CPU プロセッサー/メモリバランス型 プロセッサー+メモリをバランスよく追加するか?メモリを増強するか? 用途にフィットした構成を EXA x3850 X5 (8プロセッサー 128 DIMM) 2 x3850 X5 w/ 2 MAX5 (MT:7143にて対応) (8プロセッサー 192 DIMM) 25
  • 26. © 2010 IBM Corporation System x部(生!) 26 31 31 56 112 112 17 18 57 21% 98% 37% 31% 98% 37% 99% 64% 87% 75% 76% 99% 98% 100% 0 20 40 60 80 100 120 140 160 180 x3650M32PX5680 Processor Memory Network x3650M32PE5620 Processor Memory Network x3690X52PE7520 Processor Memory Network x3850X54PE7520 Processor Memory Network x3850X54PE7520(10GbNIC) Processor Memory Network 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% MAX5 Server Usage 仮想化サイジング例 1vCPU,4GB/VM x3650M32PX5680 x3650M32PX5620 x3690X52PX7520 x3850X54PX7520 x3850X54PX7520 eX5は、x3650M3にくらべて2.3倍~5.4倍のVMを統合することが可能 メモリー 限界 NW 限界 73 10GbNIC 130 169VM数 Usage [%] ※全て8GB DIMMにて構成
  • 27. © 2010 IBM Corporation System x部(生!) 27 IBM Redbooks High availability virtualization on the IBM System x3850 X5 http://www.redbooks.ibm.com/abstract s/tips0771.html?Open High density virtualization on the IBM System x3850 X5 http://www.redbooks.ibm.com/abstract s/tips0770.html?Open
  • 28. © 2010 IBM Corporation System x部(生!) 28