SlideShare a Scribd company logo
1 of 12
容灾方式探讨
以传统存储镜像容灾 IBM PPRC 和存储双活 SVC 高可用为例
1. 传统存储镜像容灾与存储高可用拓扑图
2. 为什么不使用 PPRC:
A.SVC 实现的高可用方案比起传统的 PPRC 方式,能够减少甚至避免业务中断时间
B.SVC 实现的高可用方案比起传统的 PPRC 方式,大大简化了人手系统恢复的过程,也意味着大大减低人手误操作的可能和带来的风险
2.1 故障情景分析:
PPRC SVC 比较结果
编号 故障场景 业务影响 PPRC 业务恢复流程 备注 业务影响 SVC 业务恢复流程 备注
1
生产主机设备
发生故障,
业务中断,大约
10 分钟以内;通
过 PowerHA 由
siteB 的备用 AIX
主机自动接管
应用根据PowerHA配置模式
自动或手工回切资源组
业务中断,大约 10
分钟以 内; 通过
PowerHA 由 siteB
的备用 AIX 主机自
动接管
应用根据 PowerHA
配置模式自动或手
工回切资源组
一样
2
生产存储设备
发生故障
存储 A 发生故
障
业务中断
2 小时-5 小时
16 个步骤:
1. 生产主机降级
2. 容灾主机升级
3. 停止 FlashCopy 卷更新
定时任务
4. 在容灾 端存储 上修改
lun mapping
5. 在容灾 端存储 上执行
failover
6. 停止 HACMP
7. 并重启主机
8. 删除 VM 上生产端存储
的设备
9. 删除两台 VIOS 上的生产
存储的设备 1. Redev 删
除虚拟设备 2.rmdev 删
除物理设备
10. 在两台 VIOS 上重
新发现容灾端存储的设
备,并修改 LUN 属性为
no_reserve
11. 在两台 VIOS 上使
用 mkvdev 命令重建虚
拟硬盘
12. 在 VM 上重新识别
容 灾 存 储 设 备 , 并
VIOS 重新认存储
B 硬盘的时候,
hdisk 序号可能与
原先的不一致,
需要人手查看存
储 B 中每个 LUN
ID,以确保存储 B
中的 LUN 正确映
射到每个虚拟机
上
业务无中断 / SVC 需要大概
数十秒的时间
自动检测并确
定生产存储的
故障,然后自
动切换到另一
存储
SVC 避免业
务中断,不
需要人为恢
复
importvg。
13. 启动 HACMP,并检
查其状态、文件系统和
数据库是否启动
14. 把相应的文件系统
mount 进来,启动数据
库
15. 数据库扫硬盘,做
数据完整性检验(耗时
取决于数据库的大小和
表之间的关联程度)
16. 启动应用
3
site 交换机设
备发生故障
site A 存储网络
发生故障,生产
主机访问不到
生产存储 A 和
容灾存储 B
业务中断 2 小时
-5 小时
14 个步骤:
1. 生产主机降级
2. 容灾主机升级
3. 停止 FlashCopy 卷更新
定时任务
4. 在容灾 端存储 上修改
lun mapping
5. 在容灾 端存储 上执行
failover
6. 停止HACMP并重启容灾
主机
7. 删除 VM 上生产端存储
的设备
8. 删除两台 VIOS 上的生产
VIOS 重新认存储
B 硬盘的时候,
hdisk 序号可能与
原先的不一致,
需要人手查看存
储 B 中每个 LUN
ID,以确保存储 B
中的 LUN 正确映
射到每个虚拟机
上
业务中断大约 1 小
时
3 个步骤:
步骤1,2同时进行,
并且无须人工干预
1. SVC自 动 切 换 到
使用site B SVC
节点和存储B,无
须人工干预。
2. 应 用 根 据
PowerHA 配 置 模
式自动关闭生产
端的应用和资源
组,再在容灾端
自动启动资源组
和应用,无须人
SVC 会有数十
秒自动检测并
确认生产存储
网络连接已经
断开
SVC 减少业
务中断,不
需要人为恢
复
存储的设备 1. Redev 删
除虚拟设备 2.rmdev 删
除物理设备
9. 在两台 VIOS 上重新发现
容灾端存储的设备,并
修 改 LUN 属 性 为
no_reserve
10. 在 两 台 VIOS 上 使 用
mkvdev 命令重建虚拟硬
盘
11. 在 VM 上重新识别容灾
存储设备,并 importvg。
12. 把 相 应 的 文 件 系 统
mount 进容灾 AIX 主机,
启动数据库
13. 数据库扫硬盘,做数据
完整性检验(耗时取决
于数据库的大小和表之
间的关联程度)
14. 启动应用
工干预。
3. 重启数据库和
应用(耗时取决
于数据库的大
小和表之间的
关联程度)
4
整个生产站点
设备全部发生
故障(灾难)
业务中断 2 小时
-5 小时;siteA 的
业务由siteB 接管
14 个步骤:
1. 生产主机降级
2. 容灾主机升级
3. 停止 FlashCopy 卷更新
定时任务
4. 在容灾 端存储 上修改
业务中断大约 1 小
时-1.5 小时
3 个步骤:
步骤 1,2 同时进行,
并且无需人工干预:
1. SVC 自动切换到
使用 site B SVC
节点和存储 B
在 SVC 自动切
换前,SVC 需
要 1 分多钟确
认生产站点发
生存储,SVC
节点,存储网
SVC 减少业
务 中 断 时
间,不需要
人为恢复
lun mapping
5. 在容灾 端存储 上执行
failover
6. 停止HACMP并重启容灾
主机
7. 删除 VM 上生产端存储
的设备
8. 删除两台 VIOS 上的生产
存储的设备 1. Redev 删
除虚拟设备 2.rmdev 删
除物理设备
9. 在两台 VIOS 上重新发现
容灾端存储的设备,并
修 改 LUN 属 性 为
no_reserve
10. 在 两 台 VIOS 上 使 用
mkvdev 命令重建虚拟硬
盘
11. 在 VM 上重新识别容灾
存储设备,并 importvg。
12. 把 相 应 的 文 件 系 统
mount 进容灾 AIX 主机,
启动数据库
13. 数据库扫硬盘,做数据
完整性检验(耗时取决
于数据库的大小和表之
2. 应 用 根 据
PowerHA 配置模
式自动或手工回
切资源组。
3. 重启数据库和应
用(耗时取决于
数据库的大小和
表之间的关联程
度)
络均不可访问
间的关联程度)
14. 启动应用
2.2 SVC 切换的监控:
SVC 有非常友好的用户界面,可以直观地看到目前 SVC 的状况:
e.g.
Volume01 已经成为一个 virtual disk 虚拟卷,其对应 copy0*,copy1 两个镜像卷,两个镜像卷分别来自两个本地生产存储和异地容灾存储,copy0* 的“*”
表示这个是来自与源卷,表示主机系统系统正在使用那台存储设备;详细关系如下图;假如应为生产存储故障,SVC 自动发生了存储切换,在这个界面可
以看到生产存储的卷被挂起处于 OFFLINE 状态。当然存储管理员也可以在存储监控页面查看甚至设置报警信息。
在管理界面下的 running task,可以查看到原来的 volume01 正在与 copy1 进行数据复制。
Volume01,右键,属性,可以 online/offline 这个虚拟卷,更改虚拟卷从哪个 IO group 挂给主机,使用是否使用缓存,使用哪个 IO group 的缓存,虚拟卷对
应的两个 volume 同步速率是多少等。
3.为什么使用 2 对 4 个 SVC 设备:
3.1 保证 SVC 设备具有可用性:
编号 故障场景 业务影响 恢复方法
1 单节点故障 业务无中断,受影响 IOG cache 变为 writethrough 模式 快速在线更换节点
2 不同 IOGroup 多节点故障 业务无中断,受影响 IOG cache 变为 writethrough 模式 快速在线更换节点
3 同一 IOG 双节点故障 业务中断 1-2 小时 1.后端存储快速退出 SVC(只针对 imagemode VDisk)
2.有可能的条件下,迁移 Vdisk 到其他 IOG
3.容灾切换
假如只使用 1 对 2 个 SVC 设备,则不具备场景 2 和 3 的故障保护能力。
3.2 系统性能考虑:
SVC 加入现有系统环境后,则主机访问存储的 IO 会经过 SVC,也就是 IO 流为“AIX 主机->SVC->存储”,我们需要保证 SVC 不会成为 IO 的瓶颈。
主机性能:
P750 每台 32 核 3.5GHz,线性 tpmC 值为 370 万,按照经典 OLTP 环境,
1tpmC 大约产生 30 个 IO,也 就是:
1tpmC =1 条交易/每分钟 =30 个 IO
故此处理一条交易过程中,每秒处理 30/60=0.5 个 IO, 即 0.5IOPS
则 370 万 tmpC 值的 POWER P750 理论上可以支撑 150 多万 IOPS,服务
器不多可能成为瓶颈;
存储性能:
存储设备 V7000,单台最大配置 240 块硬盘,假设硬盘几乎满配,
使用 224 个 15K FC 硬盘,使用性能估算工具按照经典 OLTP 环境 30%写
操作,70%读操作,DB2 块大小 8KB,2 台服务器在上面运行计算得,V7000
最大可以承受 64000 万 IOPS:
SVC 必须能够支撑 IOPS 大于 V7000 应用系统才能不成为整个系统的瓶颈 – 故此,SVC 需要能够支撑应用系统 IOPS 值得必须大于 64000IOPS。
SVC 性能:
SPC-1 测试值,可查看以下链接:
http://www.storageperformance.org/benchmark_results_files/SPC-1/IBM/A00113_IBM_SVC-6.2_Storwize-V7000/a00113_IBM_SVC-v6.2_Storwize-V7000_SPC-1_e
xecutive-summary.pdf
从 SPC-1 测试报告中说明,在 mirrorning 的环境,也就是本次项目使用的两端存储镜像实现数据复制的环境下,SVC 6.2 版本 8 个节点能够支持 52 万 IOPS;
由于 SVC 节点结构的特性,性能几乎线性扩展(从 SVC 5.2 版本 SPC-1 值, 4 个节点差不多 30 万,6 个节点 39 万可见,基本上是线性扩展的),故可以推
算 2 对 4 个 SVC 节点可支持吞吐量大于 26 万 IOPS;由于 SVC 镜像,故支持应用系统吞吐量为 13 万。
如果应用系统能够达到 13 万 IOPS,在一般 OLTP 系统上,写操作约占总 IO 的 30%,考虑存储层 RAID5 写惩罚 4 倍,假设系统总吞吐量为 X,则:
X*30%*4+X*0.7=13 –> X=6.8
则意味着这个双活系统可以支持生产应用系统每秒 6.8 万 IO 的吞吐量。
3.3 总结:
从上述分析可见,2 对 4 个 SVC 节点,可以保证 SVC 系统不会成为系统瓶颈,能够支撑业务系统的线性扩展。

More Related Content

What's hot

主库自动切换 V2.0
主库自动切换 V2.0主库自动切换 V2.0
主库自动切换 V2.0jinqing zhu
 
Proxmox: 建立自己的虛擬主機
Proxmox: 建立自己的虛擬主機Proxmox: 建立自己的虛擬主機
Proxmox: 建立自己的虛擬主機維泰 蔡
 
并发编程交流
并发编程交流并发编程交流
并发编程交流bluedavy lin
 
美团点评技术沙龙010-美团Atlas实践
美团点评技术沙龙010-美团Atlas实践美团点评技术沙龙010-美团Atlas实践
美团点评技术沙龙010-美团Atlas实践美团点评技术团队
 
C1000K高性能服务器构建技术
C1000K高性能服务器构建技术C1000K高性能服务器构建技术
C1000K高性能服务器构建技术Feng Yu
 
网站运维与监控
网站运维与监控网站运维与监控
网站运维与监控yunhaozou
 
大家都愛的 VMware - VMware 簡單介紹
大家都愛的 VMware - VMware 簡單介紹大家都愛的 VMware - VMware 簡單介紹
大家都愛的 VMware - VMware 簡單介紹Fan-Yu Kuan
 
Front end5 gulp
Front end5 gulpFront end5 gulp
Front end5 gulp宇庭 劉
 
The New Process No. 1 of Linux -- SystemD
The New Process No. 1 of Linux -- SystemDThe New Process No. 1 of Linux -- SystemD
The New Process No. 1 of Linux -- SystemDfreedman6022e20
 
高性能的Java代码编写及常见问题排查
高性能的Java代码编写及常见问题排查高性能的Java代码编写及常见问题排查
高性能的Java代码编写及常见问题排查bluedavy lin
 
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...Cheer Chain Enterprise Co., Ltd.
 
Golang 高性能实战
Golang 高性能实战Golang 高性能实战
Golang 高性能实战rfyiamcool
 
聊聊我接触的集群管理
聊聊我接触的集群管理聊聊我接触的集群管理
聊聊我接触的集群管理rfyiamcool
 
Proxmox VE 4.3 vs VMWare vSphere 6.1
Proxmox VE 4.3 vs VMWare vSphere 6.1Proxmox VE 4.3 vs VMWare vSphere 6.1
Proxmox VE 4.3 vs VMWare vSphere 6.1Chris Hsiang
 
了解内存
了解内存了解内存
了解内存Feng Yu
 
Java内存管理问题案例分享
Java内存管理问题案例分享Java内存管理问题案例分享
Java内存管理问题案例分享bluedavy lin
 
Ceph in UnitedStack
Ceph in UnitedStackCeph in UnitedStack
Ceph in UnitedStackRongze Zhu
 
Sun jdk 1.6内存管理 -使用篇
Sun jdk 1.6内存管理 -使用篇Sun jdk 1.6内存管理 -使用篇
Sun jdk 1.6内存管理 -使用篇bluedavy lin
 

What's hot (20)

主库自动切换 V2.0
主库自动切换 V2.0主库自动切换 V2.0
主库自动切换 V2.0
 
Proxmox: 建立自己的虛擬主機
Proxmox: 建立自己的虛擬主機Proxmox: 建立自己的虛擬主機
Proxmox: 建立自己的虛擬主機
 
并发编程交流
并发编程交流并发编程交流
并发编程交流
 
美团点评技术沙龙010-美团Atlas实践
美团点评技术沙龙010-美团Atlas实践美团点评技术沙龙010-美团Atlas实践
美团点评技术沙龙010-美团Atlas实践
 
C1000K高性能服务器构建技术
C1000K高性能服务器构建技术C1000K高性能服务器构建技术
C1000K高性能服务器构建技术
 
PowerVm_for_DDSC
PowerVm_for_DDSC PowerVm_for_DDSC
PowerVm_for_DDSC
 
网站运维与监控
网站运维与监控网站运维与监控
网站运维与监控
 
大家都愛的 VMware - VMware 簡單介紹
大家都愛的 VMware - VMware 簡單介紹大家都愛的 VMware - VMware 簡單介紹
大家都愛的 VMware - VMware 簡單介紹
 
Front end5 gulp
Front end5 gulpFront end5 gulp
Front end5 gulp
 
The New Process No. 1 of Linux -- SystemD
The New Process No. 1 of Linux -- SystemDThe New Process No. 1 of Linux -- SystemD
The New Process No. 1 of Linux -- SystemD
 
高可用
高可用高可用
高可用
 
高性能的Java代码编写及常见问题排查
高性能的Java代码编写及常见问题排查高性能的Java代码编写及常见问题排查
高性能的Java代码编写及常见问题排查
 
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...
全新 Veeam Availability Suite v9包括 Veeam Backup & Replication 和 Veeam ONE 備份解決方...
 
Golang 高性能实战
Golang 高性能实战Golang 高性能实战
Golang 高性能实战
 
聊聊我接触的集群管理
聊聊我接触的集群管理聊聊我接触的集群管理
聊聊我接触的集群管理
 
Proxmox VE 4.3 vs VMWare vSphere 6.1
Proxmox VE 4.3 vs VMWare vSphere 6.1Proxmox VE 4.3 vs VMWare vSphere 6.1
Proxmox VE 4.3 vs VMWare vSphere 6.1
 
了解内存
了解内存了解内存
了解内存
 
Java内存管理问题案例分享
Java内存管理问题案例分享Java内存管理问题案例分享
Java内存管理问题案例分享
 
Ceph in UnitedStack
Ceph in UnitedStackCeph in UnitedStack
Ceph in UnitedStack
 
Sun jdk 1.6内存管理 -使用篇
Sun jdk 1.6内存管理 -使用篇Sun jdk 1.6内存管理 -使用篇
Sun jdk 1.6内存管理 -使用篇
 

Viewers also liked

Viewers also liked (7)

Ricardo jr 2
Ricardo jr 2Ricardo jr 2
Ricardo jr 2
 
Internship Research and Study Project
Internship Research and Study ProjectInternship Research and Study Project
Internship Research and Study Project
 
Please hurry
Please hurryPlease hurry
Please hurry
 
AMC Evaluation Final Report 30-9-2015
AMC Evaluation Final Report 30-9-2015AMC Evaluation Final Report 30-9-2015
AMC Evaluation Final Report 30-9-2015
 
9911282929
99112829299911282929
9911282929
 
CGB
CGBCGB
CGB
 
Microbiota
MicrobiotaMicrobiota
Microbiota
 

Similar to tradictional DR solution vs Active-active solution

【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制
【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制
【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制裝機安 Angelo
 
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016Jeff Chu
 
Ezilla
EzillaEzilla
Ezillahs1250
 
Deployment instruction tg3100 ig-cn
Deployment instruction tg3100 ig-cnDeployment instruction tg3100 ig-cn
Deployment instruction tg3100 ig-cnahnlabchina
 
Ubuntu 10.04 LTS上配置简单双机热备方案
Ubuntu 10.04 LTS上配置简单双机热备方案Ubuntu 10.04 LTS上配置简单双机热备方案
Ubuntu 10.04 LTS上配置简单双机热备方案Shawn Zhung
 
Skywatch 多據點監控最佳選擇
Skywatch 多據點監控最佳選擇Skywatch 多據點監控最佳選擇
Skywatch 多據點監控最佳選擇Skywatch_24
 
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰Scourgen Hong
 
Deployment instruction tg1100 ig-cn
Deployment instruction tg1100 ig-cnDeployment instruction tg1100 ig-cn
Deployment instruction tg1100 ig-cnahnlabchina
 
Deployment instruction tg4100 f-ig_cn
Deployment instruction tg4100 f-ig_cnDeployment instruction tg4100 f-ig_cn
Deployment instruction tg4100 f-ig_cnahnlabchina
 
阿里云技术实践
阿里云技术实践阿里云技术实践
阿里云技术实践drewz lin
 
腾讯大讲堂44 qq game后台开发介绍
腾讯大讲堂44 qq game后台开发介绍腾讯大讲堂44 qq game后台开发介绍
腾讯大讲堂44 qq game后台开发介绍George Ang
 
中国海运集团的虚拟化数据中心的安全方案建议
中国海运集团的虚拟化数据中心的安全方案建议中国海运集团的虚拟化数据中心的安全方案建议
中国海运集团的虚拟化数据中心的安全方案建议Yunchao (Kevin) Wang
 
Acronis iomega文件备份和虚拟机数据保护方案
Acronis iomega文件备份和虚拟机数据保护方案Acronis iomega文件备份和虚拟机数据保护方案
Acronis iomega文件备份和虚拟机数据保护方案yeung_kevin
 
大型视频网站单点分析与可用性提升-Qcon2011
大型视频网站单点分析与可用性提升-Qcon2011大型视频网站单点分析与可用性提升-Qcon2011
大型视频网站单点分析与可用性提升-Qcon2011Yiwei Ma
 
Showinnodbstatus公开
Showinnodbstatus公开Showinnodbstatus公开
Showinnodbstatus公开longxibendi
 
VMware Rhel5 Oracle10g Rac
VMware Rhel5 Oracle10g RacVMware Rhel5 Oracle10g Rac
VMware Rhel5 Oracle10g Racguest77e407
 
Head first in xmemcached yanf4j
Head first in xmemcached yanf4jHead first in xmemcached yanf4j
Head first in xmemcached yanf4jwavefly
 

Similar to tradictional DR solution vs Active-active solution (20)

【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制
【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制
【VM保護備份專題】Dell Power Protect Data Manager (PPDM) 詳解TSDM機制
 
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
 
Ezilla
EzillaEzilla
Ezilla
 
Deployment instruction tg3100 ig-cn
Deployment instruction tg3100 ig-cnDeployment instruction tg3100 ig-cn
Deployment instruction tg3100 ig-cn
 
Ubuntu 10.04 LTS上配置简单双机热备方案
Ubuntu 10.04 LTS上配置简单双机热备方案Ubuntu 10.04 LTS上配置简单双机热备方案
Ubuntu 10.04 LTS上配置简单双机热备方案
 
Skywatch 多據點監控最佳選擇
Skywatch 多據點監控最佳選擇Skywatch 多據點監控最佳選擇
Skywatch 多據點監控最佳選擇
 
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰
从林书豪到全明星 - 虎扑网技术架构如何化解流量高峰
 
Deployment instruction tg1100 ig-cn
Deployment instruction tg1100 ig-cnDeployment instruction tg1100 ig-cn
Deployment instruction tg1100 ig-cn
 
Deployment instruction tg4100 f-ig_cn
Deployment instruction tg4100 f-ig_cnDeployment instruction tg4100 f-ig_cn
Deployment instruction tg4100 f-ig_cn
 
阿里云技术实践
阿里云技术实践阿里云技术实践
阿里云技术实践
 
腾讯大讲堂44 qq game后台开发介绍
腾讯大讲堂44 qq game后台开发介绍腾讯大讲堂44 qq game后台开发介绍
腾讯大讲堂44 qq game后台开发介绍
 
中国海运集团的虚拟化数据中心的安全方案建议
中国海运集团的虚拟化数据中心的安全方案建议中国海运集团的虚拟化数据中心的安全方案建议
中国海运集团的虚拟化数据中心的安全方案建议
 
DR planning
DR planningDR planning
DR planning
 
Manual
ManualManual
Manual
 
Acronis iomega文件备份和虚拟机数据保护方案
Acronis iomega文件备份和虚拟机数据保护方案Acronis iomega文件备份和虚拟机数据保护方案
Acronis iomega文件备份和虚拟机数据保护方案
 
大型视频网站单点分析与可用性提升-Qcon2011
大型视频网站单点分析与可用性提升-Qcon2011大型视频网站单点分析与可用性提升-Qcon2011
大型视频网站单点分析与可用性提升-Qcon2011
 
Showinnodbstatus公开
Showinnodbstatus公开Showinnodbstatus公开
Showinnodbstatus公开
 
VMware Rhel5 Oracle10g Rac
VMware Rhel5 Oracle10g RacVMware Rhel5 Oracle10g Rac
VMware Rhel5 Oracle10g Rac
 
CDP方案介绍
CDP方案介绍CDP方案介绍
CDP方案介绍
 
Head first in xmemcached yanf4j
Head first in xmemcached yanf4jHead first in xmemcached yanf4j
Head first in xmemcached yanf4j
 

tradictional DR solution vs Active-active solution

  • 1. 容灾方式探讨 以传统存储镜像容灾 IBM PPRC 和存储双活 SVC 高可用为例 1. 传统存储镜像容灾与存储高可用拓扑图
  • 2. 2. 为什么不使用 PPRC: A.SVC 实现的高可用方案比起传统的 PPRC 方式,能够减少甚至避免业务中断时间 B.SVC 实现的高可用方案比起传统的 PPRC 方式,大大简化了人手系统恢复的过程,也意味着大大减低人手误操作的可能和带来的风险 2.1 故障情景分析: PPRC SVC 比较结果 编号 故障场景 业务影响 PPRC 业务恢复流程 备注 业务影响 SVC 业务恢复流程 备注 1 生产主机设备 发生故障, 业务中断,大约 10 分钟以内;通 过 PowerHA 由 siteB 的备用 AIX 主机自动接管 应用根据PowerHA配置模式 自动或手工回切资源组 业务中断,大约 10 分钟以 内; 通过 PowerHA 由 siteB 的备用 AIX 主机自 动接管 应用根据 PowerHA 配置模式自动或手 工回切资源组 一样
  • 3. 2 生产存储设备 发生故障 存储 A 发生故 障 业务中断 2 小时-5 小时 16 个步骤: 1. 生产主机降级 2. 容灾主机升级 3. 停止 FlashCopy 卷更新 定时任务 4. 在容灾 端存储 上修改 lun mapping 5. 在容灾 端存储 上执行 failover 6. 停止 HACMP 7. 并重启主机 8. 删除 VM 上生产端存储 的设备 9. 删除两台 VIOS 上的生产 存储的设备 1. Redev 删 除虚拟设备 2.rmdev 删 除物理设备 10. 在两台 VIOS 上重 新发现容灾端存储的设 备,并修改 LUN 属性为 no_reserve 11. 在两台 VIOS 上使 用 mkvdev 命令重建虚 拟硬盘 12. 在 VM 上重新识别 容 灾 存 储 设 备 , 并 VIOS 重新认存储 B 硬盘的时候, hdisk 序号可能与 原先的不一致, 需要人手查看存 储 B 中每个 LUN ID,以确保存储 B 中的 LUN 正确映 射到每个虚拟机 上 业务无中断 / SVC 需要大概 数十秒的时间 自动检测并确 定生产存储的 故障,然后自 动切换到另一 存储 SVC 避免业 务中断,不 需要人为恢 复
  • 4. importvg。 13. 启动 HACMP,并检 查其状态、文件系统和 数据库是否启动 14. 把相应的文件系统 mount 进来,启动数据 库 15. 数据库扫硬盘,做 数据完整性检验(耗时 取决于数据库的大小和 表之间的关联程度) 16. 启动应用 3 site 交换机设 备发生故障 site A 存储网络 发生故障,生产 主机访问不到 生产存储 A 和 容灾存储 B 业务中断 2 小时 -5 小时 14 个步骤: 1. 生产主机降级 2. 容灾主机升级 3. 停止 FlashCopy 卷更新 定时任务 4. 在容灾 端存储 上修改 lun mapping 5. 在容灾 端存储 上执行 failover 6. 停止HACMP并重启容灾 主机 7. 删除 VM 上生产端存储 的设备 8. 删除两台 VIOS 上的生产 VIOS 重新认存储 B 硬盘的时候, hdisk 序号可能与 原先的不一致, 需要人手查看存 储 B 中每个 LUN ID,以确保存储 B 中的 LUN 正确映 射到每个虚拟机 上 业务中断大约 1 小 时 3 个步骤: 步骤1,2同时进行, 并且无须人工干预 1. SVC自 动 切 换 到 使用site B SVC 节点和存储B,无 须人工干预。 2. 应 用 根 据 PowerHA 配 置 模 式自动关闭生产 端的应用和资源 组,再在容灾端 自动启动资源组 和应用,无须人 SVC 会有数十 秒自动检测并 确认生产存储 网络连接已经 断开 SVC 减少业 务中断,不 需要人为恢 复
  • 5. 存储的设备 1. Redev 删 除虚拟设备 2.rmdev 删 除物理设备 9. 在两台 VIOS 上重新发现 容灾端存储的设备,并 修 改 LUN 属 性 为 no_reserve 10. 在 两 台 VIOS 上 使 用 mkvdev 命令重建虚拟硬 盘 11. 在 VM 上重新识别容灾 存储设备,并 importvg。 12. 把 相 应 的 文 件 系 统 mount 进容灾 AIX 主机, 启动数据库 13. 数据库扫硬盘,做数据 完整性检验(耗时取决 于数据库的大小和表之 间的关联程度) 14. 启动应用 工干预。 3. 重启数据库和 应用(耗时取决 于数据库的大 小和表之间的 关联程度) 4 整个生产站点 设备全部发生 故障(灾难) 业务中断 2 小时 -5 小时;siteA 的 业务由siteB 接管 14 个步骤: 1. 生产主机降级 2. 容灾主机升级 3. 停止 FlashCopy 卷更新 定时任务 4. 在容灾 端存储 上修改 业务中断大约 1 小 时-1.5 小时 3 个步骤: 步骤 1,2 同时进行, 并且无需人工干预: 1. SVC 自动切换到 使用 site B SVC 节点和存储 B 在 SVC 自动切 换前,SVC 需 要 1 分多钟确 认生产站点发 生存储,SVC 节点,存储网 SVC 减少业 务 中 断 时 间,不需要 人为恢复
  • 6. lun mapping 5. 在容灾 端存储 上执行 failover 6. 停止HACMP并重启容灾 主机 7. 删除 VM 上生产端存储 的设备 8. 删除两台 VIOS 上的生产 存储的设备 1. Redev 删 除虚拟设备 2.rmdev 删 除物理设备 9. 在两台 VIOS 上重新发现 容灾端存储的设备,并 修 改 LUN 属 性 为 no_reserve 10. 在 两 台 VIOS 上 使 用 mkvdev 命令重建虚拟硬 盘 11. 在 VM 上重新识别容灾 存储设备,并 importvg。 12. 把 相 应 的 文 件 系 统 mount 进容灾 AIX 主机, 启动数据库 13. 数据库扫硬盘,做数据 完整性检验(耗时取决 于数据库的大小和表之 2. 应 用 根 据 PowerHA 配置模 式自动或手工回 切资源组。 3. 重启数据库和应 用(耗时取决于 数据库的大小和 表之间的关联程 度) 络均不可访问
  • 7. 间的关联程度) 14. 启动应用 2.2 SVC 切换的监控: SVC 有非常友好的用户界面,可以直观地看到目前 SVC 的状况: e.g. Volume01 已经成为一个 virtual disk 虚拟卷,其对应 copy0*,copy1 两个镜像卷,两个镜像卷分别来自两个本地生产存储和异地容灾存储,copy0* 的“*” 表示这个是来自与源卷,表示主机系统系统正在使用那台存储设备;详细关系如下图;假如应为生产存储故障,SVC 自动发生了存储切换,在这个界面可 以看到生产存储的卷被挂起处于 OFFLINE 状态。当然存储管理员也可以在存储监控页面查看甚至设置报警信息。 在管理界面下的 running task,可以查看到原来的 volume01 正在与 copy1 进行数据复制。
  • 8. Volume01,右键,属性,可以 online/offline 这个虚拟卷,更改虚拟卷从哪个 IO group 挂给主机,使用是否使用缓存,使用哪个 IO group 的缓存,虚拟卷对 应的两个 volume 同步速率是多少等。
  • 9. 3.为什么使用 2 对 4 个 SVC 设备: 3.1 保证 SVC 设备具有可用性: 编号 故障场景 业务影响 恢复方法
  • 10. 1 单节点故障 业务无中断,受影响 IOG cache 变为 writethrough 模式 快速在线更换节点 2 不同 IOGroup 多节点故障 业务无中断,受影响 IOG cache 变为 writethrough 模式 快速在线更换节点 3 同一 IOG 双节点故障 业务中断 1-2 小时 1.后端存储快速退出 SVC(只针对 imagemode VDisk) 2.有可能的条件下,迁移 Vdisk 到其他 IOG 3.容灾切换 假如只使用 1 对 2 个 SVC 设备,则不具备场景 2 和 3 的故障保护能力。 3.2 系统性能考虑: SVC 加入现有系统环境后,则主机访问存储的 IO 会经过 SVC,也就是 IO 流为“AIX 主机->SVC->存储”,我们需要保证 SVC 不会成为 IO 的瓶颈。 主机性能: P750 每台 32 核 3.5GHz,线性 tpmC 值为 370 万,按照经典 OLTP 环境, 1tpmC 大约产生 30 个 IO,也 就是: 1tpmC =1 条交易/每分钟 =30 个 IO 故此处理一条交易过程中,每秒处理 30/60=0.5 个 IO, 即 0.5IOPS 则 370 万 tmpC 值的 POWER P750 理论上可以支撑 150 多万 IOPS,服务 器不多可能成为瓶颈; 存储性能: 存储设备 V7000,单台最大配置 240 块硬盘,假设硬盘几乎满配, 使用 224 个 15K FC 硬盘,使用性能估算工具按照经典 OLTP 环境 30%写 操作,70%读操作,DB2 块大小 8KB,2 台服务器在上面运行计算得,V7000 最大可以承受 64000 万 IOPS:
  • 11. SVC 必须能够支撑 IOPS 大于 V7000 应用系统才能不成为整个系统的瓶颈 – 故此,SVC 需要能够支撑应用系统 IOPS 值得必须大于 64000IOPS。 SVC 性能: SPC-1 测试值,可查看以下链接: http://www.storageperformance.org/benchmark_results_files/SPC-1/IBM/A00113_IBM_SVC-6.2_Storwize-V7000/a00113_IBM_SVC-v6.2_Storwize-V7000_SPC-1_e xecutive-summary.pdf 从 SPC-1 测试报告中说明,在 mirrorning 的环境,也就是本次项目使用的两端存储镜像实现数据复制的环境下,SVC 6.2 版本 8 个节点能够支持 52 万 IOPS; 由于 SVC 节点结构的特性,性能几乎线性扩展(从 SVC 5.2 版本 SPC-1 值, 4 个节点差不多 30 万,6 个节点 39 万可见,基本上是线性扩展的),故可以推 算 2 对 4 个 SVC 节点可支持吞吐量大于 26 万 IOPS;由于 SVC 镜像,故支持应用系统吞吐量为 13 万。 如果应用系统能够达到 13 万 IOPS,在一般 OLTP 系统上,写操作约占总 IO 的 30%,考虑存储层 RAID5 写惩罚 4 倍,假设系统总吞吐量为 X,则: X*30%*4+X*0.7=13 –> X=6.8 则意味着这个双活系统可以支持生产应用系统每秒 6.8 万 IO 的吞吐量。
  • 12. 3.3 总结: 从上述分析可见,2 对 4 个 SVC 节点,可以保证 SVC 系统不会成为系统瓶颈,能够支撑业务系统的线性扩展。