SlideShare a Scribd company logo
1 of 43
Download to read offline
25,000のベンチマーク結果からわかった!
OpenStack on Cephの性能
OSCA技術検討会 OpenStack分科会
デル株式会社 日比野 正慶
レッドハット株式会社 佐々木 宏忠
株式会社日立ソリューションズ 工藤 雄大
株式会社日立ソリューションズ 平原 一帆
Ver. 1.1
1. はじめに
- OSCAのご紹介と本検証のねらい
デル株式会社
エンタープライズソリューション & アライアンス
エンタープライズ テクノロジスト
日比野 正慶
OSCA のご紹介
2012年2月にインテルとデルが中心となり発足、2016年6月時点で23社が参加。
先進的且つ標準的な技術の情報発信を通じ、参画企業のビジネス活性化を目的とする。
2016年、OSCA v2.0 で、ソリューションスコープを拡張、IOT実現に向けた取り組みを強化。
OSCA の活動
• 各分科会による検証と、ブログ、ホワイトペーパーを通じた情報発信
• ビジネスにつなげるための、各種セミナー主催やイベント参加
• お客様やパートナー様との関係を強化する技術交流会やパーティーイベントの開催
OSCA 3つのテーマ
オープン
ネットワーキング
ビッグデータ
分析
オープンクラウド
コンピューティング
ビッグデータ解析
オープンネットワーキング
オープンクラウドコンピューティング
• Ceph on OpenStack の性能評価
• Docker 利用時の I/O 性能評価
• NFV性能評価 - OpenStack NFVI基盤上での vCPE性能評価
• ホワイトボックススイッチを利用したネットワークOS比較検証
• “Dell Bigdata / IoTラボ” POC/デモ環境構築
随時新規プロジェクト受付中
現在進行中のプロジェクト
検証の思惑と狙い
最新OpenStack
RAリリース
ストレージはCephおし
最新 RHEL OSP 8
Cephがライセンスフリーに!
OSCA OpenStack
技術分科会リーダーとして
テーマを検討
Cephの情報が少ない OSCAでやろう!
Cephってどうなの? Cephを使ってほしい 案件が増えてきた
デルの最新 OpenStack RA
• 2016年6月リリース 最新 OpenStack RA (RHEL OSP8対応)
• Director, Instance HA, OpenShift v3.3, Ceph v1.31, Midonet サポート
• 興味あるかたは、下記URLまたはデルブースまで
Download
http://www.dell.com/en-us/work/learn/assets/shared-content~data-sheets~en/documents~dell-red-hat-cloud-solutions.pdf
2. 検証環境のご説明
レッドハット株式会社
テクニカル・セールス本部
ソリューションアーキテクト
佐々木 忠弘
2.1 検証構成の特徴
• 一般的な機器
• Dell PowerEdge C6220 (Xeon E5-2620×2(2GHz, 6Core))
• HDDは10,000rpmのSAS、SSDは非NVMe
• 標準的な構成・設定、特別なチューニング無し
• ほぼインストールガイドの設定例とおり
• ほぼチューニングはしていない
• ソフトウェアのバージョン
• Red Hat OpenStack Platform 7 (Kilo (RHEL7.2))
• Red Hat Ceph Storage 1.3 (Hammer (RHEL7.2))
条件を変えた時に、
どのように性能が
変わるかがポイント
Ceph nodesCeph nodesCompute
nodes
Compute
nodes
Controller nodesController nodes
2.2 OpenStackの構成
Director
(TripleO)
eth0 eth1 eth2
Controller nodes
p2p4em3 em4BMC em1
Compute
nodes
p1p1 p1p2BMC em1
Ceph nodes
p1p1 p1p2BMC em1
BMC NW
Provisioning NW
External NW
Internal API NW
Storage NW
Storage Mgmt NW
Tenant NW
Trunk
Trunk
Trunk
Trunk
Trunk
Trunk
Access
Access
Access
Access
Access
Access
Access
Access
Access
Access
1Gbps
10Gbps
2.3 Cephの特徴
• オープンソースのSoftware
Defined Storage
• OpenStackのストレージ
バックエンドをCephに統合
• OPENSTACK USER SURVEY
で、59%のユーザがCinder
バックエンドに使用 (※)
• CRUSHアルゴリズムにより
大規模スケールアウト対応
※ http://www.openstack.org/assets/survey/April-2016-User-Survey-Report.pdf
2.4 Journal & Replication
• データの永続性向上の為にOSD
間でReplication
(Erasure Codingも可能)
• Full Data Journalによる確実な
書き込み
• JournalをSSD化することで、
Write Cache的な効果
OSD1 OSD2 OSD3
書き込み
Replication
OSD1
Journal
(SSD)
Data Store
(HDD)
1
O_DIRECT
O_DSYNC
2 Buffered I/O
• 書き込み量が増えると、HDD側
の書き込みがボトルネック
今回の検証は継続書き込みの為、
HDD側の書き込みがボトルネック
2.5 BlueStoreによるCephの高速化
• 新しいバックエンド BlueStore
• RHCS2 (Jewel)でリリース
(Tech Preview)
• 2〜3倍の性能向上を期待
• Full Data Journalが不要
• Block Deviceへの直接書き込み
参考: http://www.slideshare.net/sageweil1/bluestore-a-new-faster-storage-backend-for-ceph
http://redhatstorage.redhat.com/2016/06/23/the-milestone-of-red-hat-ceph-storage-2/
今回の検証はこれじゃないです
念のため。。。
3. 検証方法及び結果
株式会社日立ソリューションズ
技術開発本部 研究開発部
技師
工藤 雄大
3.1 ベンチマーク環境
・OSD Server(Svr)
- 6台準備。物理Disk仕様は下記。
-- OS :300GB SAS 10Krpm x2(raid1)
-- OSD Disk :600GB SAS 10Krpm x3 (JBOD)
-- Journal : 320GB SSD
(各OSD用に50GBのVolumeを準備)
・インスタンス(VM)
- 各Compute Serverに9VM作成(計27VM )
- Ceph RBDでBlock Deviceとしてマウント
- RHEL 7.2上に、fio-2.1.7をインストール
- Floating IPを割り当て
- Director ServerからパスワードレスSSHで、
fioを実行可能に設定
# ceph tell osd.[OSD No] injectargs --journal_max_write_entries 1000
--journal_max_write_bytes 1048576000 --journal_queue_max_ops
3000 --journal_queue_max_bytes 1048576000 --
filestore_max_sync_interval 10
・各OSD(Disk)へ下記パラメータ投入
Ceph環境
OSD Server 1 OSD Server 2 OSD Server 3
OpenStack
Controller
兼
Ceph Monitor
1~3
OSD Server 4 OSD Server 5 OSD Server 6
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Director
Server
OpenStack Compute1
VM1 VM4 VM7
OpenStack Compute2
VM2 VM5 VM8
OpenStack Compute3
VM3 VM6 VM9
fioによるiops値測定
VM10 VM13 VM16
VM19 VM22 VM25
VM11 VM14 VM17
VM20 VM23 VM26
VM12 VM15 VM18
VM21 VM24 VM27
3.2 ベンチマーク方法
ssh (user@instance IP) fio -rw=[read/write] -size=1G -ioengine=libaio -iodepth=4 -invalidate=1 -direct=1 -
name=test.bin -runtime=120 -bs=[BlockSize]k -numjobs=[Job数] -group_reporting > (file name) & ssh・・・・
・下記を変えながら2分ベンチマーク実行、2分sleep
- VM:1|2|3|9|27
- [read/write]:randread|randwrite
- [BlockSize]:4|16|32|64|128
- [Job数]:1|4|8|16
- 3回繰り返し
- OSD Svr :3|4|5|6 台
Director ServerからVMへSSH接続し、VM上でfioを実行
(1+2+3+9+27)
×2
×5
×4
×3
×4
=20,160
更に失敗データ
(後述)が5,000件程
3.3 (余談)ベンチマーク用スクリプト
スクリプト完了まで
30時間!!!
(×OSD Svrの台数変えて4回)
3.4 データ整形
20,160のfioデータからIOPS、BWを抽出 => VM並列実行時のものを総和
=> 3回繰り返しの中間値を採用 => 整形(レコード数800)
WhitePaperの180以上のグラフから、
BlockSize(BS)、VM数、OSD Svr数観点で抜粋してご説明します。
3.5 BS増加時の傾向(Write:VM1,27)
・IOPS
 VM1台時
128KB時は、4KB時の
0.6倍の性能
 VM27台時
128KB時は、4KB時の
0.5倍の性能
・Throughput
 VM1台時
128KB時は、4KB時の
25倍の性能
 VM27台時
128KB時は、4KB時の
17倍の性能
3.6 BS増加時の傾向(Read:VM1,27)
・IOPS
 VM1台時
128KB時は、4KB時の
0.4倍の性能
(OSD3台時は低い)
 VM27台時
128KB時は、4KB時の
0.3倍の性能
・Throughput
 VM1台時
128KB時は、4KB時の
2.7倍の性能
(最大は64KB時)
 VM27台時
BSにより性能は変わらず
拡大
拡大
3.7 VM数増加時の傾向(Write:BS 4KB,128KB)
・IOPS
 4KB時
VM27台時は、VM1台時の
0.7倍の性能
 128KB時
VM27台時は、VM1台時の
0.5倍の性能
(共にjob1時除く)
・Throughput
 4KB時
VM27台時は、VM1台時の
0.8倍の性能
 128KB時
VM27台時は、VM1台時の
0.6倍の性能
(共にjob1時除く)
拡大
3.8 VM数増加時の傾向(Read:BS 4KB,128KB)
・IOPS
 4KB時
VM27台時は、VM1台時の
16倍の性能
 128KB時
VM27台時は、VM1台時の
14倍の性能
・Throughput
 4KB時
VM27台時は、VM1台時の
38倍の性能
 128KB時
VM27台時は、VM1台時の
14倍の性能
3.9 OSD Svr増加時の傾向(Write:BS 4KB,128KB)
・IOPS
 OSD Svr台数増加
に伴い性能向上
・Throughput
 OSD Svr台数増加
に伴い性能向上
拡大
3.10 OSD Svr増加時の傾向(Read:BS 4KB,128KB)
・IOPS
 OSD Svr台数増加
してもあまり変化無し
・Throughput
 OSD Svr台数増加
してもあまり変化無し
(3台時が少し高い)
3.11 全体傾向
# パターン Random Write Random Read
IOPS Throughput IOPS Throughput
1 BS増加 緩やかに低下 大幅に向上 緩やかに低下 大幅に向上
・BlockSizeからみた全体傾向
# パターン Random Write Random Read
IOPS Throughput IOPS Throughput
1 OSD Svr数増加 比例的に向上 変化なし
・OSD Svr数からみた全体傾向
普通のDiskストレージと同じ傾向
WriteはOSD Server数増加に伴い向上
Readは限界性能までベンチをかけきれず
3.12 最大性能値
# 項目 条件 値(io/s)
1 Write時 最大IOPS OSD Svr:6台、Block Size:16KB、Job数:4、VM:1 1,805
2 Read時 最大IOPS OSD Svr:3台、Block Size:4KB、Job数:16、VM:27 494,491
・今回の検証で得られた全データにおける、最大値
 今回の検証の範囲(連続的な負荷をかけた場合)において
 JournalのWrite Cacheはあまり効果無し
(性能はOSD Diskの本数に依存)
 JournalのRead Cacheは絶大な効果
- 本検証ではOSD Svr 3台時のRead限界にすら達せず
- OpenStack Compute側でのメモリキャッシュ可能性
# 項目 条件 値(KB/s)
3 Write時 最大Throughput OSD Svr:6台、Block Size:128KB、Job数:1、VM:3 161,525
4 Read時 最大Throughput OSD Svr:3台、Block Size:32KB、Job数:16、VM:27 28,111,873
4. TIPS & 検証まとめ
株式会社日立ソリューションズ
技術開発本部 研究開発部
平原 一帆
Ceph性能測定TIPS 〜と言う名の検証失敗談
4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題
4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題
4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題
4.4 まとめ
Ceph環境
OSD Server 1 OSD Server 2 OSD Server 3
OS (HDD raid1)
OS (HDD raid1)
OS (HDD raid1)
OS (HDD raid1)
OS (HDD raid1)
OS (HDD raid1)
4.1 Ceph DeployによるCeph+OpenStack連携問題(1/4)
Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題
■OpenStack+Ceph環境構築
1.Ceph Deploy環境つくる
2.Ceph OSD環境つくる
3.Ceph DeployでOSD、Monitor 設定
4.block volume作成、配置、マウント
5.OpenStack Controllerつくる
6.OpenStack Computeつくる
7.OpenStack Flavorの変更
8.OpenStackの関連設定ファイルの変更
OpenStack環境
Journal (SSD) Journal (SSD) Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OpenStack
Compute 1
VM VM
VM VM
OpenStack
Compute 2
VM VM
VM VM
OpenStack
Compute 3
VM VM
VM VM
OpenStack
Controller
■OpenStack+Ceph環境構築
1.Ceph Deploy環境つくる
2.Ceph OSD環境つくる
3.Ceph DeployでOSD、Monitor 設定
4.block volume作成、配置、マウント
5.OpenStack Controllerつくる
6.OpenStack Computeつくる
7.OpenStack Flavorの変更
8.OpenStackの関連設定ファイルの変更
Ceph Deploy
1~3
兼
Ceph Monitor
■OpenStack+Ceph環境構築
1.Ceph Deploy環境つくる
2.Ceph OSD環境つくる
3.Ceph DeployでOSD、Monitor 設定
4.block volume作成、配置、マウント
5.OpenStack Controllerつくる
6.OpenStack Computeつくる
7.OpenStack Flavorの変更
8.OpenStackの関連設定ファイルの変更
4.1 Ceph DeployによるCeph+OpenStack連携問題(2/4)
sudo subscription-manager repos --enable=rhel-7-server-extras-rpms
sudo yum install -y yum-utils && sudo yum-config-manager --add-repo
https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install --
nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM-
GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org*
sudo vim /etc/yum.repos.d/ceph.repo
sudo yum update && sudo yum install ceph-deploy
sudo yum install ntp ntpdate ntp-doc
ssh user@ceph-server
sudo useradd -d /home/{username} -m {username}
sudo passwd {username}
echo "{username} ALL = (root) NOPASSWD:ALL" | sudo tee
/etc/sudoers.d/{username}
sudo chmod 0440 /etc/sudoers.d/{username}
ssh-keygen
ssh-copy-id {username}@node1
sudo firewall-cmd --zone=public --add-port=6789/tcp –permanent
sudo iptables -A INPUT -i {iface} -p tcp -s {ip-address}/{netmask} --dport
6789 -j ACCEPT
sudo setenforce 0
mkdir my-cluster
cd my-clusterceph-deploy purgedata {ceph-node} [{ceph-node}]
ceph-deploy forgetkeys
ceph-deploy purge {ceph-node} [{ceph-node}]
ceph-deploy new {initial-monitor-node(s)} ceph-deploy new node1
ceph-deploy install {ceph-node}[{ceph-node} ...]
ceph-deploy install admin-node node1 node2 node3
ceph-deploy mon create-initial
ceph-deploy osd prepare {ceph-node}:/path/to/directory
ceph-deploy osd activate {ceph-node}:/path/to/directory
ceph-deploy admin {admin-node} {ceph-node}
sudo chmod +r /etc/ceph/ceph.client.admin.keyring
ceph health
ceph-deploy osd prepare {ceph-node}:/path/to/directory
ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1
ceph –w
ceph-deploy mon add {ceph-node}
ceph quorum_status --format json-pretty
rbd create foo --size 4096 [-m {mon-IP}] [-k
/path/to/ceph.client.admin.keyring]
sudo rbd map foo --name client.admin [-m {mon-IP}] [-k
/path/to/ceph.client.admin.keyring]
sudo mkfs.ext4 -m0 /dev/rbd/rbd/foo
sudo mkdir /mnt/ceph-block-device
sudo mount /dev/rbd/rbd/foo /mnt/ceph-block-device
cd /mnt/ceph-block-device
Ceph構築に使ったコマンド (docs.ceph.com/docs/より抜粋)
別途OpenStack構築が必要な上に、連携設定も必要…。
コマンドが多過ぎて間違いやすい上に、
間違いに気付いてからのリカバリが複雑!
4.1 Ceph DeployによるCeph+OpenStack連携問題(3/4)
■実際にやった失敗の一例
正しいコマンド
ceph-deploy osd activate
osdserver1:/dev/sdc:/dev/sdb1
間違えたコマンド
ceph-deploy osd activate
osdserver1:/dev/sdc:/dev/sdb
→ エラーも特に出ず、かつJournalが使用されず、
性能測定結果に大きな影響が。
細かすぎて、どこが間違っているかなかなか気付かない
/dev/sda
/dev/sdb
/dev/sdc
/dev/sdd
/dev/sde
/dev/sdb2
/dev/sdb1
/dev/sdb3
OS Disk
Journal
OSD Disk
OSD Disk 構成
4.1 Ceph DeployによるCeph+OpenStack連携問題(4/4)
■要するに、(当初の私のように毛嫌いせずに)
RHEL-OSP Directorのような構築ツールが
あるならそれを利用しよう!
・Directorの管理下としてServerを登録
・Serverに役割を付与、Network設定
↓
設定をDirector Serverに集約、迅速化
■というだけでなく、
・台数を変化させて再構築
・設定値を微妙に変更して再構築
↓
再構築が簡単、放置して昼休憩可
性能測定のようなScrap&Build向き
OpenStack Compute1
VM1 VM4 VM7
OpenStack Compute2
VM2 VM5 VM8
OpenStack Compute3
VM3 VM6 VM9
VM10 VM13 VM16
VM19 VM22 VM25
VM11 VM14 VM17
VM20 VM23 VM26
VM12 VM15 VM18
VM21 VM24 VM27
OpenStack環境
Director
Server
Ceph環境
OSD Server 1 OSD Server 2 OSD Server 3
OpenStack
Controller
兼
Ceph Monitor
1~3
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
構築 構築
Ceph性能測定TIPS
4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題
→手入力がとても多いから可能な限りツールを使おうね
4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題
4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題
4.4 まとめ
4.2 Disk揃えないと測定結果がバラつくよ問題(1/2)
0
500
1000
1500
2000
OSD3 OSD4 OSD5 OSD6
VM1
VM2
VM3
Diskサイズを揃えないと性能測定の結果がバラつくよ問題
■当初想定していた性能検証結果
「OSD Serverが増えていけば、IOPS性能が向上していくだろう」
■初回性能測定
「OSD Server増やしたら性能すごく悪くなって…る…?」
→ どこかおかしいのでは??
■色々見直す
→ OSD Serverに使ってるDiskサイズが問題なのかも?
■構成見直し後、再度性能測定
だいたい想定どおりの挙動。
「OSD Serverを増やしていけば、性能が向上する!」
0
500
1000
1500
2000
OSDf3 OSDf4 OSDf5 OSDf6
VM1
VM2
VM3
0
500
1000
1500
2000
OSDf3 OSDf4 OSDf5 OSDf6
IOPS_W:32KB、job1 (io/s)
VM1
VM2
VM3
4.2 Disk揃えないと測定結果がバラつくよ問題(2/2)
→OSD Serverに使ってるDiskサイズの問題なのかも?
■どういうこと?
→OSD ServerのOSD(HDD)の中に300GBと600GBが混在
■全台600GBに統一したら想定通りの性能測定結果
→混在しているから性能がバラつくと予測
■ここで疑問
→混在してるとなぜ性能がバラつくの?
→Diskの利用度合はweightで設定される。
ceph-deployコマンドやceph-diskコマンドによるDisk追加時、
指定がない場合はDiskサイズに応じたweightが自動設定される。
→Diskサイズを揃えることで性能測定結果は安定
またはweightを揃えることでも安定すると推測
300GB
300GB
300GB
600GB
600GB
600GB
600GB
600GB
600GB
600GB
600GB
600GB
Ceph性能測定TIPS
4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題
→手入力がとても多いから可能な限りツールを使おうね
4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題
→性能の安定を重視するなら同じDiskを選ぼうね
4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題
4.4 まとめ
4.3 HDDが少ないからWrite速度遅いんじゃないの問題(1/4)
OSD Server
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
OSD Server
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
(1)
(2’)copy
(3)write
4KB
OSD Server
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
(2)write
(3)write
(前章再掲)
 今回の検証の範囲において
JournalのWrite Cacheはあまり効果無し
性能はOSD Diskの本数に依存
■理由はCephのアーキテクチャにあると推測
Cephではデータが渡された際に、
(1) まずPrimaryがデータを受け取ったら
(2) JournalからOSD Diskへの書き込みと同時に、
(2’)別OSDサーバへミラーリングを指示
(3) 別OSDサーバのJournalからOSD Diskへ書き込み
■速度が遅い原因として
・Diskの数の問題
・キャッシュ時間の問題
が考えられる
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
4.3 HDDが少ないからWrite速度遅いんじゃないの問題(2/4)
Disk数が少ないからWrite速度遅いんじゃないの?
OSD Server1
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
OSD Server2
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
■どういうこと?
Journal(SSD)へ高速に記録しても、
Sync先であるOSD(HDD)が既に書き込み中だと
SSDからOSD(HDD)への書き込みが進まず、
OSD(HDD)がボトルネックになる。
高負荷環境下では結局OSD(HDD)と同速度となり、
OSD(HDD)の本数と性能が比例すると推測される。
・・・
・・・
4KB
4KB
Now
Writing
4.3 HDDが少ないからWrite速度遅いんじゃないの問題(3/4)
キャッシュ保持時間の影響でWrite速度遅いんじゃないの?
OSD Server
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
■どういうこと?
Journalにはデータのキャッシュ時間を設定できる。
OSD(HDD)への書き込み待ちが設定時間を超えると、
Journal(SSD)が空くまでデータ書き込み受付を停止。
結局OSD(HDD)の本数と性能が比例する結果に。
4KB
HDDに
書き込み中
(中略) --filestore_max_sync_interval 10
SSDでは
書き込み待ち
データは
次々に来る
10秒後
SSD空きまで
受付停止
OSD Server
Journal (SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
4KB
4.3 HDDが少ないからWrite速度遅いんじゃないの問題(4/4)
HDD台数が少ない(~中略~) 問題の解決
OSD Server
Journal(SSD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OS (HDD raid1)
OS (HDD raid1)
OSD Server
Journal (SSD)
OS (HDD raid1)
OS (HDD raid1)
■OSD(HDD)の台数を大きく増やす
→ Journal(SSD)速度 < OSD(HDD)速度×台数
SSDの性能をHDDの台数で上回れば、
ボトルネックは解消する。
■OSD DiskとしてSSDを導入
→ Journal(SSD)速度 < OSD(SSD)速度×台数
OSD Diskの性能がJournalと同等なら、
小規模環境でもボトルネックにならない。
HDDの
台数増加
OSD Disk (SSD)
OSD Disk (SSD)
OSD Disk (SSD)
OSD Diskに
SSDを使用
OSD Disk (HDD)
︙
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
OSD Disk (HDD)
Ceph性能測定TIPS
4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題
→手入力がとても多いから可能な限りツールを使おうね
4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題
→性能の安定を重視するなら同じDiskを選ぼうね
4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題
→高負荷環境では多数のHDDを用意、またはSSD用意しようね
4.4 まとめ
4.4 まとめ
■OpenStack on Ceph検証から得られたこと
・今回の検証の範囲(連続的な負荷をかけた場合)では、
 JournalのWrite Cacheはあまり効果無し (性能はOSD Diskの本数に依存)
 JournalのRead Cacheは絶大な効果 (メモリキャッシュの可能性も)
・実機検証によるノウハウ
 構築ツール推奨
 Disk統一推奨
 小規模環境ならSSD、大規模なら多数のHDD使用を推奨
■OSCAホワイトペーパー発行
本日の検証内容や設計の詳細については、
下記をご参照ください。
http://www.osca-jp.com/solution.html
- OpenStack on Ceph性能評価
- OpenStack on Cephストレージ設計のポイント
25,000のベンチマーク結果からわかった!
OpenStack on Cephの性能
OSCA技術検討会 OpenStack分科会
Linuxは、Linus Torvaldsの米国およびその他の国における登録商標または商標です。
OpenStack®の文字表記とOpenStackのロゴは、米国とその他の国におけるOpenStack Foundationの登録商標/サービスマークまたは商標/
サービスマークのいずれかであり,OpenStack Foundationの許諾を得て使用しています。日立製作所はOpenStack Foundationや
OpenStackコミュニティの関連企業ではなく、また支援や出資を受けていません。デルはOpenStack Foundation またはOpenStack コミュニティ
とは提携しておらず、公認や出資も受けていません。Red Hat は、OpenStack Foundation と OpenStack コミュニティのいずれにも所属してお
らず、公認や出資も受けていません。
OSCA™(Open Standard Cloud Association)は、デル株式会社の登録商標です。
PowerEdge、DELLロゴは、米国Dell Inc.の商標または登録商標です。
Red HatおよびRed Hatをベースとしたすべての商標とロゴ、Cephは、米国Red Hat software,Inc.の登録商標です。
その他、記載の商標やロゴは、各社の商標または登録商標です。
本講演は、情報提供のみを目的としており、誤字脱字、技術上の誤りには一切責任を負いません。
本講演の内容は一般的な原則を記しており、すべての環境での動作を保証するものではありません。
本講演の内容は検証時のものであり、明示的、暗示的を問わず、いかなる内容も保証いたしません。
本文書に掲載された文章、画像、図面等は、特に記載がない限り、OSCA、日立ソリューションズ、
レッドハット、デルが保有しています。特に記載がない限り、複製、改変したものを無断で
再配布することはできません。

More Related Content

What's hot

「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~ - ...
「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~  - ...「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~  - ...
「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~ - ...VirtualTech Japan Inc.
 
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月VirtualTech Japan Inc.
 
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月VirtualTech Japan Inc.
 
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月VirtualTech Japan Inc.
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門VirtualTech Japan Inc.
 
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 VirtualTech Japan Inc.
 
ネットワン様講演 OpenStack最新情報セミナー 2014年8月
ネットワン様講演 OpenStack最新情報セミナー 2014年8月ネットワン様講演 OpenStack最新情報セミナー 2014年8月
ネットワン様講演 OpenStack最新情報セミナー 2014年8月VirtualTech Japan Inc.
 
今さら聞けない人のためのDocker超入門 - KOF
今さら聞けない人のためのDocker超入門 - KOF今さら聞けない人のためのDocker超入門 - KOF
今さら聞けない人のためのDocker超入門 - KOFVirtualTech Japan Inc.
 
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月VirtualTech Japan Inc.
 
ネットワン様講演 OpenStack最新情報セミナー 2014年2月
ネットワン様講演 OpenStack最新情報セミナー 2014年2月ネットワン様講演 OpenStack最新情報セミナー 2014年2月
ネットワン様講演 OpenStack最新情報セミナー 2014年2月VirtualTech Japan Inc.
 
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)Interop2014 - OpenStackの概要と最新技術動向(Icehouse)
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)irix_jp
 
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)VirtualTech Japan Inc.
 
OpenStack本番環境の作り方 - Interop 2016
OpenStack本番環境の作り方 - Interop 2016OpenStack本番環境の作り方 - Interop 2016
OpenStack本番環境の作り方 - Interop 2016VirtualTech Japan Inc.
 
使ってわかった!現場担当者が語るOpenStack運用管理の課題 - OpenStack最新情報セミナー 2015年2月
使ってわかった!現場担当者が語るOpenStack運用管理の課題  - OpenStack最新情報セミナー 2015年2月使ってわかった!現場担当者が語るOpenStack運用管理の課題  - OpenStack最新情報セミナー 2015年2月
使ってわかった!現場担当者が語るOpenStack運用管理の課題 - OpenStack最新情報セミナー 2015年2月VirtualTech Japan Inc.
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swiftirix_jp
 
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)VirtualTech Japan Inc.
 
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演VirtualTech Japan Inc.
 
OpenStack Summit Hong Kong 出張報告
OpenStack Summit Hong Kong 出張報告OpenStack Summit Hong Kong 出張報告
OpenStack Summit Hong Kong 出張報告VirtualTech Japan Inc.
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...VirtualTech Japan Inc.
 
ZabbixによるOpenStack監視のご紹介
ZabbixによるOpenStack監視のご紹介ZabbixによるOpenStack監視のご紹介
ZabbixによるOpenStack監視のご紹介VirtualTech Japan Inc.
 

What's hot (20)

「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~ - ...
「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~  - ...「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~  - ...
「Neutronになって理解するOpenStack Network」~Neutron/Open vSwitchなどNeutronと周辺技術の解説~ - ...
 
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
 
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
 
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
OpenStack-Ansibleで作るOpenStack HA環境 手順書解説 - OpenStack最新情報セミナー 2016年3月
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門
 
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
 
ネットワン様講演 OpenStack最新情報セミナー 2014年8月
ネットワン様講演 OpenStack最新情報セミナー 2014年8月ネットワン様講演 OpenStack最新情報セミナー 2014年8月
ネットワン様講演 OpenStack最新情報セミナー 2014年8月
 
今さら聞けない人のためのDocker超入門 - KOF
今さら聞けない人のためのDocker超入門 - KOF今さら聞けない人のためのDocker超入門 - KOF
今さら聞けない人のためのDocker超入門 - KOF
 
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
 
ネットワン様講演 OpenStack最新情報セミナー 2014年2月
ネットワン様講演 OpenStack最新情報セミナー 2014年2月ネットワン様講演 OpenStack最新情報セミナー 2014年2月
ネットワン様講演 OpenStack最新情報セミナー 2014年2月
 
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)Interop2014 - OpenStackの概要と最新技術動向(Icehouse)
Interop2014 - OpenStackの概要と最新技術動向(Icehouse)
 
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
 
OpenStack本番環境の作り方 - Interop 2016
OpenStack本番環境の作り方 - Interop 2016OpenStack本番環境の作り方 - Interop 2016
OpenStack本番環境の作り方 - Interop 2016
 
使ってわかった!現場担当者が語るOpenStack運用管理の課題 - OpenStack最新情報セミナー 2015年2月
使ってわかった!現場担当者が語るOpenStack運用管理の課題  - OpenStack最新情報セミナー 2015年2月使ってわかった!現場担当者が語るOpenStack運用管理の課題  - OpenStack最新情報セミナー 2015年2月
使ってわかった!現場担当者が語るOpenStack運用管理の課題 - OpenStack最新情報セミナー 2015年2月
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swift
 
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)
今すぐ試せるブルーグリーンデプロイメント入門とその実装 - OpenStack最新情報セミナー(2017年3月)
 
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演
使ってわかった!現場担当者が語るOpenStack運用管理の課題:OpenStack Days 2015 Tokyo 講演
 
OpenStack Summit Hong Kong 出張報告
OpenStack Summit Hong Kong 出張報告OpenStack Summit Hong Kong 出張報告
OpenStack Summit Hong Kong 出張報告
 
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
OpenStack Kilo with 6Wind VA High-Performance Networking Using DPDK - OpenSta...
 
ZabbixによるOpenStack監視のご紹介
ZabbixによるOpenStack監視のご紹介ZabbixによるOpenStack監視のご紹介
ZabbixによるOpenStack監視のご紹介
 

Viewers also liked

Ceph Performance on OpenStack - Barcelona Summit
Ceph Performance on OpenStack - Barcelona SummitCeph Performance on OpenStack - Barcelona Summit
Ceph Performance on OpenStack - Barcelona SummitTakehiro Kudou
 
HKG15-401: Ceph and Software Defined Storage on ARM servers
HKG15-401: Ceph and Software Defined Storage on ARM serversHKG15-401: Ceph and Software Defined Storage on ARM servers
HKG15-401: Ceph and Software Defined Storage on ARM serversLinaro
 
Cephのベンチマークをしました
CephのベンチマークをしましたCephのベンチマークをしました
CephのベンチマークをしましたOSSラボ株式会社
 
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報Emma Haruka Iwao
 
Ceph アーキテクチャ概説
Ceph アーキテクチャ概説Ceph アーキテクチャ概説
Ceph アーキテクチャ概説Emma Haruka Iwao
 
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要Etsuji Nakai
 
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) 40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) hamaken
 

Viewers also liked (7)

Ceph Performance on OpenStack - Barcelona Summit
Ceph Performance on OpenStack - Barcelona SummitCeph Performance on OpenStack - Barcelona Summit
Ceph Performance on OpenStack - Barcelona Summit
 
HKG15-401: Ceph and Software Defined Storage on ARM servers
HKG15-401: Ceph and Software Defined Storage on ARM serversHKG15-401: Ceph and Software Defined Storage on ARM servers
HKG15-401: Ceph and Software Defined Storage on ARM servers
 
Cephのベンチマークをしました
CephのベンチマークをしましたCephのベンチマークをしました
Cephのベンチマークをしました
 
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報
 
Ceph アーキテクチャ概説
Ceph アーキテクチャ概説Ceph アーキテクチャ概説
Ceph アーキテクチャ概説
 
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要
 
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料) 40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
 

Similar to Osdt_osca_ceph_20160706

今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise
今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise
今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC EnterpriseYusukeKuramata
 
OpenStack 向けネットワーク入門
OpenStack 向けネットワーク入門OpenStack 向けネットワーク入門
OpenStack 向けネットワーク入門Dell TechCenter Japan
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門VirtualTech Japan Inc.
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門VirtualTech Japan Inc.
 
OpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseOpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseHideki Saito
 
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライドEMC Japan
 
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)オラクルエンジニア通信
 
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Takamasa Maejima
 
CrystalDiskMark & CrystalDiskInfo 開発裏話
CrystalDiskMark & CrystalDiskInfo 開発裏話CrystalDiskMark & CrystalDiskInfo 開発裏話
CrystalDiskMark & CrystalDiskInfo 開発裏話hiyohiyo
 
Cloudstack user group meeting in osaka
Cloudstack user group meeting in osakaCloudstack user group meeting in osaka
Cloudstack user group meeting in osakaNaotaka Jay HOTTA
 
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...Insight Technology, Inc.
 
Open stack reference architecture v1 2
Open stack reference architecture v1 2Open stack reference architecture v1 2
Open stack reference architecture v1 2Dell TechCenter Japan
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプTech Summit 2016
 
Azure Stack 受け入れ準備_20180630
Azure Stack 受け入れ準備_20180630Azure Stack 受け入れ準備_20180630
Azure Stack 受け入れ準備_20180630Hiroshi Matsumoto
 
OSC2013 Tokyo Spring OpenStack Overview
OSC2013 Tokyo Spring OpenStack OverviewOSC2013 Tokyo Spring OpenStack Overview
OSC2013 Tokyo Spring OpenStack Overviewirix_jp
 
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密ShuheiUda
 
OSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGOSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGHideki Saito
 
大規模環境のOpenStack アップグレードの考え方と実施のコツ
大規模環境のOpenStackアップグレードの考え方と実施のコツ大規模環境のOpenStackアップグレードの考え方と実施のコツ
大規模環境のOpenStack アップグレードの考え方と実施のコツTomoya Hashimoto
 

Similar to Osdt_osca_ceph_20160706 (20)

今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise
今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise
今注目のSpark SQL、知っておきたいその性能とは 20151209 OSC Enterprise
 
OpenStack 向けネットワーク入門
OpenStack 向けネットワーク入門OpenStack 向けネットワーク入門
OpenStack 向けネットワーク入門
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門
 
OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門OpenStackで始めるクラウド環境構築入門
OpenStackで始めるクラウド環境構築入門
 
OpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseOpenStack QuickStart - Icehouse
OpenStack QuickStart - Icehouse
 
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド
2015.6.5 EMC主催OpenStackセミナー - EMC講演スライド
 
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)
Oracle Cloud Infrastructure 最新情報(Oracle Cloudウェビナーシリーズ: 2020年7月30日)
 
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
 
CrystalDiskMark & CrystalDiskInfo 開発裏話
CrystalDiskMark & CrystalDiskInfo 開発裏話CrystalDiskMark & CrystalDiskInfo 開発裏話
CrystalDiskMark & CrystalDiskInfo 開発裏話
 
Cloudstack user group meeting in osaka
Cloudstack user group meeting in osakaCloudstack user group meeting in osaka
Cloudstack user group meeting in osaka
 
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
[db tech showcase OSS 2017] A24: マイクロソフトと OSS Database - Azure Database for M...
 
Open stack reference architecture v1 2
Open stack reference architecture v1 2Open stack reference architecture v1 2
Open stack reference architecture v1 2
 
Prometech Particleworks on Rescale
Prometech Particleworks on RescalePrometech Particleworks on Rescale
Prometech Particleworks on Rescale
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプ
 
Azure Stack 受け入れ準備_20180630
Azure Stack 受け入れ準備_20180630Azure Stack 受け入れ準備_20180630
Azure Stack 受け入れ準備_20180630
 
OSC2013 Tokyo Spring OpenStack Overview
OSC2013 Tokyo Spring OpenStack OverviewOSC2013 Tokyo Spring OpenStack Overview
OSC2013 Tokyo Spring OpenStack Overview
 
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密
サポート エンジニアが語る、Microsoft Azure を支えるインフラの秘密
 
MapReduce/YARNの仕組みを知る
MapReduce/YARNの仕組みを知るMapReduce/YARNの仕組みを知る
MapReduce/YARNの仕組みを知る
 
OSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGOSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUG
 
大規模環境のOpenStack アップグレードの考え方と実施のコツ
大規模環境のOpenStackアップグレードの考え方と実施のコツ大規模環境のOpenStackアップグレードの考え方と実施のコツ
大規模環境のOpenStack アップグレードの考え方と実施のコツ
 

Recently uploaded

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 

Recently uploaded (14)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 

Osdt_osca_ceph_20160706

  • 1. 25,000のベンチマーク結果からわかった! OpenStack on Cephの性能 OSCA技術検討会 OpenStack分科会 デル株式会社 日比野 正慶 レッドハット株式会社 佐々木 宏忠 株式会社日立ソリューションズ 工藤 雄大 株式会社日立ソリューションズ 平原 一帆 Ver. 1.1
  • 2. 1. はじめに - OSCAのご紹介と本検証のねらい デル株式会社 エンタープライズソリューション & アライアンス エンタープライズ テクノロジスト 日比野 正慶
  • 4. OSCA の活動 • 各分科会による検証と、ブログ、ホワイトペーパーを通じた情報発信 • ビジネスにつなげるための、各種セミナー主催やイベント参加 • お客様やパートナー様との関係を強化する技術交流会やパーティーイベントの開催
  • 5. OSCA 3つのテーマ オープン ネットワーキング ビッグデータ 分析 オープンクラウド コンピューティング ビッグデータ解析 オープンネットワーキング オープンクラウドコンピューティング • Ceph on OpenStack の性能評価 • Docker 利用時の I/O 性能評価 • NFV性能評価 - OpenStack NFVI基盤上での vCPE性能評価 • ホワイトボックススイッチを利用したネットワークOS比較検証 • “Dell Bigdata / IoTラボ” POC/デモ環境構築 随時新規プロジェクト受付中 現在進行中のプロジェクト
  • 6. 検証の思惑と狙い 最新OpenStack RAリリース ストレージはCephおし 最新 RHEL OSP 8 Cephがライセンスフリーに! OSCA OpenStack 技術分科会リーダーとして テーマを検討 Cephの情報が少ない OSCAでやろう! Cephってどうなの? Cephを使ってほしい 案件が増えてきた
  • 7. デルの最新 OpenStack RA • 2016年6月リリース 最新 OpenStack RA (RHEL OSP8対応) • Director, Instance HA, OpenShift v3.3, Ceph v1.31, Midonet サポート • 興味あるかたは、下記URLまたはデルブースまで Download http://www.dell.com/en-us/work/learn/assets/shared-content~data-sheets~en/documents~dell-red-hat-cloud-solutions.pdf
  • 9. 2.1 検証構成の特徴 • 一般的な機器 • Dell PowerEdge C6220 (Xeon E5-2620×2(2GHz, 6Core)) • HDDは10,000rpmのSAS、SSDは非NVMe • 標準的な構成・設定、特別なチューニング無し • ほぼインストールガイドの設定例とおり • ほぼチューニングはしていない • ソフトウェアのバージョン • Red Hat OpenStack Platform 7 (Kilo (RHEL7.2)) • Red Hat Ceph Storage 1.3 (Hammer (RHEL7.2)) 条件を変えた時に、 どのように性能が 変わるかがポイント
  • 10. Ceph nodesCeph nodesCompute nodes Compute nodes Controller nodesController nodes 2.2 OpenStackの構成 Director (TripleO) eth0 eth1 eth2 Controller nodes p2p4em3 em4BMC em1 Compute nodes p1p1 p1p2BMC em1 Ceph nodes p1p1 p1p2BMC em1 BMC NW Provisioning NW External NW Internal API NW Storage NW Storage Mgmt NW Tenant NW Trunk Trunk Trunk Trunk Trunk Trunk Access Access Access Access Access Access Access Access Access Access 1Gbps 10Gbps
  • 11. 2.3 Cephの特徴 • オープンソースのSoftware Defined Storage • OpenStackのストレージ バックエンドをCephに統合 • OPENSTACK USER SURVEY で、59%のユーザがCinder バックエンドに使用 (※) • CRUSHアルゴリズムにより 大規模スケールアウト対応 ※ http://www.openstack.org/assets/survey/April-2016-User-Survey-Report.pdf
  • 12. 2.4 Journal & Replication • データの永続性向上の為にOSD 間でReplication (Erasure Codingも可能) • Full Data Journalによる確実な 書き込み • JournalをSSD化することで、 Write Cache的な効果 OSD1 OSD2 OSD3 書き込み Replication OSD1 Journal (SSD) Data Store (HDD) 1 O_DIRECT O_DSYNC 2 Buffered I/O • 書き込み量が増えると、HDD側 の書き込みがボトルネック 今回の検証は継続書き込みの為、 HDD側の書き込みがボトルネック
  • 13. 2.5 BlueStoreによるCephの高速化 • 新しいバックエンド BlueStore • RHCS2 (Jewel)でリリース (Tech Preview) • 2〜3倍の性能向上を期待 • Full Data Journalが不要 • Block Deviceへの直接書き込み 参考: http://www.slideshare.net/sageweil1/bluestore-a-new-faster-storage-backend-for-ceph http://redhatstorage.redhat.com/2016/06/23/the-milestone-of-red-hat-ceph-storage-2/ 今回の検証はこれじゃないです 念のため。。。
  • 15. 3.1 ベンチマーク環境 ・OSD Server(Svr) - 6台準備。物理Disk仕様は下記。 -- OS :300GB SAS 10Krpm x2(raid1) -- OSD Disk :600GB SAS 10Krpm x3 (JBOD) -- Journal : 320GB SSD (各OSD用に50GBのVolumeを準備) ・インスタンス(VM) - 各Compute Serverに9VM作成(計27VM ) - Ceph RBDでBlock Deviceとしてマウント - RHEL 7.2上に、fio-2.1.7をインストール - Floating IPを割り当て - Director ServerからパスワードレスSSHで、 fioを実行可能に設定 # ceph tell osd.[OSD No] injectargs --journal_max_write_entries 1000 --journal_max_write_bytes 1048576000 --journal_queue_max_ops 3000 --journal_queue_max_bytes 1048576000 -- filestore_max_sync_interval 10 ・各OSD(Disk)へ下記パラメータ投入 Ceph環境 OSD Server 1 OSD Server 2 OSD Server 3 OpenStack Controller 兼 Ceph Monitor 1~3 OSD Server 4 OSD Server 5 OSD Server 6 Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Director Server OpenStack Compute1 VM1 VM4 VM7 OpenStack Compute2 VM2 VM5 VM8 OpenStack Compute3 VM3 VM6 VM9 fioによるiops値測定 VM10 VM13 VM16 VM19 VM22 VM25 VM11 VM14 VM17 VM20 VM23 VM26 VM12 VM15 VM18 VM21 VM24 VM27
  • 16. 3.2 ベンチマーク方法 ssh (user@instance IP) fio -rw=[read/write] -size=1G -ioengine=libaio -iodepth=4 -invalidate=1 -direct=1 - name=test.bin -runtime=120 -bs=[BlockSize]k -numjobs=[Job数] -group_reporting > (file name) & ssh・・・・ ・下記を変えながら2分ベンチマーク実行、2分sleep - VM:1|2|3|9|27 - [read/write]:randread|randwrite - [BlockSize]:4|16|32|64|128 - [Job数]:1|4|8|16 - 3回繰り返し - OSD Svr :3|4|5|6 台 Director ServerからVMへSSH接続し、VM上でfioを実行 (1+2+3+9+27) ×2 ×5 ×4 ×3 ×4 =20,160 更に失敗データ (後述)が5,000件程
  • 18. 3.4 データ整形 20,160のfioデータからIOPS、BWを抽出 => VM並列実行時のものを総和 => 3回繰り返しの中間値を採用 => 整形(レコード数800) WhitePaperの180以上のグラフから、 BlockSize(BS)、VM数、OSD Svr数観点で抜粋してご説明します。
  • 19. 3.5 BS増加時の傾向(Write:VM1,27) ・IOPS  VM1台時 128KB時は、4KB時の 0.6倍の性能  VM27台時 128KB時は、4KB時の 0.5倍の性能 ・Throughput  VM1台時 128KB時は、4KB時の 25倍の性能  VM27台時 128KB時は、4KB時の 17倍の性能
  • 20. 3.6 BS増加時の傾向(Read:VM1,27) ・IOPS  VM1台時 128KB時は、4KB時の 0.4倍の性能 (OSD3台時は低い)  VM27台時 128KB時は、4KB時の 0.3倍の性能 ・Throughput  VM1台時 128KB時は、4KB時の 2.7倍の性能 (最大は64KB時)  VM27台時 BSにより性能は変わらず 拡大 拡大
  • 21. 3.7 VM数増加時の傾向(Write:BS 4KB,128KB) ・IOPS  4KB時 VM27台時は、VM1台時の 0.7倍の性能  128KB時 VM27台時は、VM1台時の 0.5倍の性能 (共にjob1時除く) ・Throughput  4KB時 VM27台時は、VM1台時の 0.8倍の性能  128KB時 VM27台時は、VM1台時の 0.6倍の性能 (共にjob1時除く) 拡大
  • 22. 3.8 VM数増加時の傾向(Read:BS 4KB,128KB) ・IOPS  4KB時 VM27台時は、VM1台時の 16倍の性能  128KB時 VM27台時は、VM1台時の 14倍の性能 ・Throughput  4KB時 VM27台時は、VM1台時の 38倍の性能  128KB時 VM27台時は、VM1台時の 14倍の性能
  • 23. 3.9 OSD Svr増加時の傾向(Write:BS 4KB,128KB) ・IOPS  OSD Svr台数増加 に伴い性能向上 ・Throughput  OSD Svr台数増加 に伴い性能向上 拡大
  • 24. 3.10 OSD Svr増加時の傾向(Read:BS 4KB,128KB) ・IOPS  OSD Svr台数増加 してもあまり変化無し ・Throughput  OSD Svr台数増加 してもあまり変化無し (3台時が少し高い)
  • 25. 3.11 全体傾向 # パターン Random Write Random Read IOPS Throughput IOPS Throughput 1 BS増加 緩やかに低下 大幅に向上 緩やかに低下 大幅に向上 ・BlockSizeからみた全体傾向 # パターン Random Write Random Read IOPS Throughput IOPS Throughput 1 OSD Svr数増加 比例的に向上 変化なし ・OSD Svr数からみた全体傾向 普通のDiskストレージと同じ傾向 WriteはOSD Server数増加に伴い向上 Readは限界性能までベンチをかけきれず
  • 26. 3.12 最大性能値 # 項目 条件 値(io/s) 1 Write時 最大IOPS OSD Svr:6台、Block Size:16KB、Job数:4、VM:1 1,805 2 Read時 最大IOPS OSD Svr:3台、Block Size:4KB、Job数:16、VM:27 494,491 ・今回の検証で得られた全データにおける、最大値  今回の検証の範囲(連続的な負荷をかけた場合)において  JournalのWrite Cacheはあまり効果無し (性能はOSD Diskの本数に依存)  JournalのRead Cacheは絶大な効果 - 本検証ではOSD Svr 3台時のRead限界にすら達せず - OpenStack Compute側でのメモリキャッシュ可能性 # 項目 条件 値(KB/s) 3 Write時 最大Throughput OSD Svr:6台、Block Size:128KB、Job数:1、VM:3 161,525 4 Read時 最大Throughput OSD Svr:3台、Block Size:32KB、Job数:16、VM:27 28,111,873
  • 27. 4. TIPS & 検証まとめ 株式会社日立ソリューションズ 技術開発本部 研究開発部 平原 一帆
  • 28. Ceph性能測定TIPS 〜と言う名の検証失敗談 4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題 4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題 4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題 4.4 まとめ
  • 29. Ceph環境 OSD Server 1 OSD Server 2 OSD Server 3 OS (HDD raid1) OS (HDD raid1) OS (HDD raid1) OS (HDD raid1) OS (HDD raid1) OS (HDD raid1) 4.1 Ceph DeployによるCeph+OpenStack連携問題(1/4) Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題 ■OpenStack+Ceph環境構築 1.Ceph Deploy環境つくる 2.Ceph OSD環境つくる 3.Ceph DeployでOSD、Monitor 設定 4.block volume作成、配置、マウント 5.OpenStack Controllerつくる 6.OpenStack Computeつくる 7.OpenStack Flavorの変更 8.OpenStackの関連設定ファイルの変更 OpenStack環境 Journal (SSD) Journal (SSD) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OpenStack Compute 1 VM VM VM VM OpenStack Compute 2 VM VM VM VM OpenStack Compute 3 VM VM VM VM OpenStack Controller ■OpenStack+Ceph環境構築 1.Ceph Deploy環境つくる 2.Ceph OSD環境つくる 3.Ceph DeployでOSD、Monitor 設定 4.block volume作成、配置、マウント 5.OpenStack Controllerつくる 6.OpenStack Computeつくる 7.OpenStack Flavorの変更 8.OpenStackの関連設定ファイルの変更 Ceph Deploy 1~3 兼 Ceph Monitor ■OpenStack+Ceph環境構築 1.Ceph Deploy環境つくる 2.Ceph OSD環境つくる 3.Ceph DeployでOSD、Monitor 設定 4.block volume作成、配置、マウント 5.OpenStack Controllerつくる 6.OpenStack Computeつくる 7.OpenStack Flavorの変更 8.OpenStackの関連設定ファイルの変更
  • 30. 4.1 Ceph DeployによるCeph+OpenStack連携問題(2/4) sudo subscription-manager repos --enable=rhel-7-server-extras-rpms sudo yum install -y yum-utils && sudo yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install -- nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM- GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org* sudo vim /etc/yum.repos.d/ceph.repo sudo yum update && sudo yum install ceph-deploy sudo yum install ntp ntpdate ntp-doc ssh user@ceph-server sudo useradd -d /home/{username} -m {username} sudo passwd {username} echo "{username} ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/{username} sudo chmod 0440 /etc/sudoers.d/{username} ssh-keygen ssh-copy-id {username}@node1 sudo firewall-cmd --zone=public --add-port=6789/tcp –permanent sudo iptables -A INPUT -i {iface} -p tcp -s {ip-address}/{netmask} --dport 6789 -j ACCEPT sudo setenforce 0 mkdir my-cluster cd my-clusterceph-deploy purgedata {ceph-node} [{ceph-node}] ceph-deploy forgetkeys ceph-deploy purge {ceph-node} [{ceph-node}] ceph-deploy new {initial-monitor-node(s)} ceph-deploy new node1 ceph-deploy install {ceph-node}[{ceph-node} ...] ceph-deploy install admin-node node1 node2 node3 ceph-deploy mon create-initial ceph-deploy osd prepare {ceph-node}:/path/to/directory ceph-deploy osd activate {ceph-node}:/path/to/directory ceph-deploy admin {admin-node} {ceph-node} sudo chmod +r /etc/ceph/ceph.client.admin.keyring ceph health ceph-deploy osd prepare {ceph-node}:/path/to/directory ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1 ceph –w ceph-deploy mon add {ceph-node} ceph quorum_status --format json-pretty rbd create foo --size 4096 [-m {mon-IP}] [-k /path/to/ceph.client.admin.keyring] sudo rbd map foo --name client.admin [-m {mon-IP}] [-k /path/to/ceph.client.admin.keyring] sudo mkfs.ext4 -m0 /dev/rbd/rbd/foo sudo mkdir /mnt/ceph-block-device sudo mount /dev/rbd/rbd/foo /mnt/ceph-block-device cd /mnt/ceph-block-device Ceph構築に使ったコマンド (docs.ceph.com/docs/より抜粋) 別途OpenStack構築が必要な上に、連携設定も必要…。 コマンドが多過ぎて間違いやすい上に、 間違いに気付いてからのリカバリが複雑!
  • 31. 4.1 Ceph DeployによるCeph+OpenStack連携問題(3/4) ■実際にやった失敗の一例 正しいコマンド ceph-deploy osd activate osdserver1:/dev/sdc:/dev/sdb1 間違えたコマンド ceph-deploy osd activate osdserver1:/dev/sdc:/dev/sdb → エラーも特に出ず、かつJournalが使用されず、 性能測定結果に大きな影響が。 細かすぎて、どこが間違っているかなかなか気付かない /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdb2 /dev/sdb1 /dev/sdb3 OS Disk Journal OSD Disk OSD Disk 構成
  • 32. 4.1 Ceph DeployによるCeph+OpenStack連携問題(4/4) ■要するに、(当初の私のように毛嫌いせずに) RHEL-OSP Directorのような構築ツールが あるならそれを利用しよう! ・Directorの管理下としてServerを登録 ・Serverに役割を付与、Network設定 ↓ 設定をDirector Serverに集約、迅速化 ■というだけでなく、 ・台数を変化させて再構築 ・設定値を微妙に変更して再構築 ↓ 再構築が簡単、放置して昼休憩可 性能測定のようなScrap&Build向き OpenStack Compute1 VM1 VM4 VM7 OpenStack Compute2 VM2 VM5 VM8 OpenStack Compute3 VM3 VM6 VM9 VM10 VM13 VM16 VM19 VM22 VM25 VM11 VM14 VM17 VM20 VM23 VM26 VM12 VM15 VM18 VM21 VM24 VM27 OpenStack環境 Director Server Ceph環境 OSD Server 1 OSD Server 2 OSD Server 3 OpenStack Controller 兼 Ceph Monitor 1~3 Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) 構築 構築
  • 33. Ceph性能測定TIPS 4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題 →手入力がとても多いから可能な限りツールを使おうね 4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題 4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題 4.4 まとめ
  • 34. 4.2 Disk揃えないと測定結果がバラつくよ問題(1/2) 0 500 1000 1500 2000 OSD3 OSD4 OSD5 OSD6 VM1 VM2 VM3 Diskサイズを揃えないと性能測定の結果がバラつくよ問題 ■当初想定していた性能検証結果 「OSD Serverが増えていけば、IOPS性能が向上していくだろう」 ■初回性能測定 「OSD Server増やしたら性能すごく悪くなって…る…?」 → どこかおかしいのでは?? ■色々見直す → OSD Serverに使ってるDiskサイズが問題なのかも? ■構成見直し後、再度性能測定 だいたい想定どおりの挙動。 「OSD Serverを増やしていけば、性能が向上する!」 0 500 1000 1500 2000 OSDf3 OSDf4 OSDf5 OSDf6 VM1 VM2 VM3 0 500 1000 1500 2000 OSDf3 OSDf4 OSDf5 OSDf6 IOPS_W:32KB、job1 (io/s) VM1 VM2 VM3
  • 35. 4.2 Disk揃えないと測定結果がバラつくよ問題(2/2) →OSD Serverに使ってるDiskサイズの問題なのかも? ■どういうこと? →OSD ServerのOSD(HDD)の中に300GBと600GBが混在 ■全台600GBに統一したら想定通りの性能測定結果 →混在しているから性能がバラつくと予測 ■ここで疑問 →混在してるとなぜ性能がバラつくの? →Diskの利用度合はweightで設定される。 ceph-deployコマンドやceph-diskコマンドによるDisk追加時、 指定がない場合はDiskサイズに応じたweightが自動設定される。 →Diskサイズを揃えることで性能測定結果は安定 またはweightを揃えることでも安定すると推測 300GB 300GB 300GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB
  • 36. Ceph性能測定TIPS 4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題 →手入力がとても多いから可能な限りツールを使おうね 4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題 →性能の安定を重視するなら同じDiskを選ぼうね 4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題 4.4 まとめ
  • 37. 4.3 HDDが少ないからWrite速度遅いんじゃないの問題(1/4) OSD Server Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) OSD Server Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) (1) (2’)copy (3)write 4KB OSD Server Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) (2)write (3)write (前章再掲)  今回の検証の範囲において JournalのWrite Cacheはあまり効果無し 性能はOSD Diskの本数に依存 ■理由はCephのアーキテクチャにあると推測 Cephではデータが渡された際に、 (1) まずPrimaryがデータを受け取ったら (2) JournalからOSD Diskへの書き込みと同時に、 (2’)別OSDサーバへミラーリングを指示 (3) 別OSDサーバのJournalからOSD Diskへ書き込み ■速度が遅い原因として ・Diskの数の問題 ・キャッシュ時間の問題 が考えられる OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD)
  • 38. 4.3 HDDが少ないからWrite速度遅いんじゃないの問題(2/4) Disk数が少ないからWrite速度遅いんじゃないの? OSD Server1 Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) OSD Server2 Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) ■どういうこと? Journal(SSD)へ高速に記録しても、 Sync先であるOSD(HDD)が既に書き込み中だと SSDからOSD(HDD)への書き込みが進まず、 OSD(HDD)がボトルネックになる。 高負荷環境下では結局OSD(HDD)と同速度となり、 OSD(HDD)の本数と性能が比例すると推測される。 ・・・ ・・・ 4KB 4KB Now Writing
  • 39. 4.3 HDDが少ないからWrite速度遅いんじゃないの問題(3/4) キャッシュ保持時間の影響でWrite速度遅いんじゃないの? OSD Server Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) ■どういうこと? Journalにはデータのキャッシュ時間を設定できる。 OSD(HDD)への書き込み待ちが設定時間を超えると、 Journal(SSD)が空くまでデータ書き込み受付を停止。 結局OSD(HDD)の本数と性能が比例する結果に。 4KB HDDに 書き込み中 (中略) --filestore_max_sync_interval 10 SSDでは 書き込み待ち データは 次々に来る 10秒後 SSD空きまで 受付停止 OSD Server Journal (SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) 4KB
  • 40. 4.3 HDDが少ないからWrite速度遅いんじゃないの問題(4/4) HDD台数が少ない(~中略~) 問題の解決 OSD Server Journal(SSD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OS (HDD raid1) OS (HDD raid1) OSD Server Journal (SSD) OS (HDD raid1) OS (HDD raid1) ■OSD(HDD)の台数を大きく増やす → Journal(SSD)速度 < OSD(HDD)速度×台数 SSDの性能をHDDの台数で上回れば、 ボトルネックは解消する。 ■OSD DiskとしてSSDを導入 → Journal(SSD)速度 < OSD(SSD)速度×台数 OSD Diskの性能がJournalと同等なら、 小規模環境でもボトルネックにならない。 HDDの 台数増加 OSD Disk (SSD) OSD Disk (SSD) OSD Disk (SSD) OSD Diskに SSDを使用 OSD Disk (HDD) ︙ OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD) OSD Disk (HDD)
  • 41. Ceph性能測定TIPS 4.1 Ceph DeployによるCeph + OpenStack連携かなり大変だよ問題 →手入力がとても多いから可能な限りツールを使おうね 4.2 Diskサイズを揃えないと性能測定の結果がバラつくよ問題 →性能の安定を重視するなら同じDiskを選ぼうね 4.3 HDD台数が少ないからWrite速度遅いんじゃないの問題 →高負荷環境では多数のHDDを用意、またはSSD用意しようね 4.4 まとめ
  • 42. 4.4 まとめ ■OpenStack on Ceph検証から得られたこと ・今回の検証の範囲(連続的な負荷をかけた場合)では、  JournalのWrite Cacheはあまり効果無し (性能はOSD Diskの本数に依存)  JournalのRead Cacheは絶大な効果 (メモリキャッシュの可能性も) ・実機検証によるノウハウ  構築ツール推奨  Disk統一推奨  小規模環境ならSSD、大規模なら多数のHDD使用を推奨 ■OSCAホワイトペーパー発行 本日の検証内容や設計の詳細については、 下記をご参照ください。 http://www.osca-jp.com/solution.html - OpenStack on Ceph性能評価 - OpenStack on Cephストレージ設計のポイント
  • 43. 25,000のベンチマーク結果からわかった! OpenStack on Cephの性能 OSCA技術検討会 OpenStack分科会 Linuxは、Linus Torvaldsの米国およびその他の国における登録商標または商標です。 OpenStack®の文字表記とOpenStackのロゴは、米国とその他の国におけるOpenStack Foundationの登録商標/サービスマークまたは商標/ サービスマークのいずれかであり,OpenStack Foundationの許諾を得て使用しています。日立製作所はOpenStack Foundationや OpenStackコミュニティの関連企業ではなく、また支援や出資を受けていません。デルはOpenStack Foundation またはOpenStack コミュニティ とは提携しておらず、公認や出資も受けていません。Red Hat は、OpenStack Foundation と OpenStack コミュニティのいずれにも所属してお らず、公認や出資も受けていません。 OSCA™(Open Standard Cloud Association)は、デル株式会社の登録商標です。 PowerEdge、DELLロゴは、米国Dell Inc.の商標または登録商標です。 Red HatおよびRed Hatをベースとしたすべての商標とロゴ、Cephは、米国Red Hat software,Inc.の登録商標です。 その他、記載の商標やロゴは、各社の商標または登録商標です。 本講演は、情報提供のみを目的としており、誤字脱字、技術上の誤りには一切責任を負いません。 本講演の内容は一般的な原則を記しており、すべての環境での動作を保証するものではありません。 本講演の内容は検証時のものであり、明示的、暗示的を問わず、いかなる内容も保証いたしません。 本文書に掲載された文章、画像、図面等は、特に記載がない限り、OSCA、日立ソリューションズ、 レッドハット、デルが保有しています。特に記載がない限り、複製、改変したものを無断で 再配布することはできません。