SlideShare a Scribd company logo
1 of 11
Download to read offline
Google 创新的数据中心建设方法介绍
腾讯网络平台部数据中心规划组 李典林
邮箱:dufresne545@gmail.com
谷歌在过去 10 年中一直在建设自己的数据中心。搜索巨头的数据中心非常高效,利用
了可再生能源,并尽可能保护环境。目前 Google 依旧大举投资数据中心,最近三个月投资
了 16 亿美金,不得不说科技真的是第一生产力。
其实,很多年来,谷歌都有其独特的建造标准,比如说当地是否有良好的劳动力资源,
又或者有没有一个强大的电网接入能力,这可能是一个很关键的资格审核标准。最近谷歌还
增加了绿色问题考量的比重,比如说谷歌会考虑当地有没有提供可再生的能源供应的能力。
谷歌运营副总裁 Joe Kava 表示,在谷歌的理念中,长期效益不仅仅是指谷歌如何使用电
力来供应服务器,如何更快速的设计和建造数据中心同样也非常重要。他指出,位于乔治亚
州的数据中心历时 16 个月完工,而不是耗费 2 到 3 年的时间。谷歌已经建立了一整套设计
和建造数据中心的标准流程。谷歌通过模块化、低成本的设计来缩短数据中心的交付周期。
6 年前,谷歌在亚特兰大建设一处数据中心耗费了 16 个月时间。目前,在大楼建好之
后,谷歌通常只需要不到 1 年时间来完成数据中心的建设。因此除了技术领先之外,我们还
经常感叹于国外互联网公司快速的数据中心设计建设交付能力。相比之下,国内大规模数据
中心从规划设计到建成投产,整个周期往往长达 2 到 3 年。对于快速变化的互联网行业,很
多业务可能在不到一年内就爆发,或者说等机房建好之后就早已消亡,因此时间就是生命,
效率就是金钱,两三年的数据中心建设时间是不能接受的,因此非常有必要研究一下国外这
些领先公司的数据中心建设方法,以满足业务多变和快速需求的能力。本文谨以谷歌数据中
心的特点以及建设方法做些最粗浅的分析,纯属抛砖引玉,目的在于让更多同行来研究进步。
图 1 谷歌比利时数据中心全景
一、建筑布局篇
图 1 是谷歌比利时数据中心的全景图,这是一个较为典型的谷歌特色数据中心,从空中
俯视看到的庞大体量和氤氲升腾的水汽,绝对会让人联想到现代化的超级信息处理工厂,或
者说全力巡航的超级信息航母,虽然用航母来比喻不太恰当。但正是这些散布在全球的超级
数据中心,通过谷歌全球光纤和 Spanner 调度系统连接在一起成为超级航母战斗群。据统计
目前发送给和发送自谷歌服务器的流量如今占到了全美互联网总流量的四分之一,全球月独
立访问用户数超过 10 亿,成为全球互联网行业的超级巨擘。
从前面的照片上看,谷歌的数据中心建筑结构非常简单,主体机房为宽而矮的单层或者
双层建筑结构,船体的中后两舱为两个长宽形主体机房模块;船头为机房配套的功能区域,
如安保办公、设备拆包、接入弱电等;船体左侧为模块化变配电柴发区域,船体右侧是模块
化空调散热储水区域,水电分区,两翼作为巡洋舰和护卫舰等保障航空母舰的稳定可靠运行。
由于建筑建构非常简单,因此机楼主体建筑的建设时间也可以大大缩短,特别是采用了
框架式大开间结构,以及整体墙板拼接模式,机房框架的建设时间非常短,只有不到两个月
的时间即可完成。大开间结构和墙板拼接模式不但建设进度快,而且建筑材料可回收利用更
为绿色环保,此外也便于大型设备搬迁进出机房区域等,更为适合大型数据中心建设模式。
我们一起来回顾一下 2007 年始建的 Google Iowa 州数据中心的一些施工图片,2007 年 6 月,
Google 在 Iowa 州 Council Bluffs 的数据中心启动建设,经过平整土地和简易桩基搭建起了
如图 2(a)的数据中心支撑框架,再经过图 2(b)中的工厂预制整体墙板吊装拼接,以及
其他道路防护等工程,整体机房建筑经过 7 个周多的施工,即可完工。
图 2(a) 数据中心支撑框架 图 2(b) 工厂预制整体墙板吊装拼接
机房主体建设的同时或者稍后,同步开展的还有机房两翼的机电支撑设备安装,前面我
们提到了谷歌采用模块化的供电和散热模块,因此其机电工程建设也可以采用模块化分期按
需建设。供电方面,通过室外型的变压器和配电柜以及集装箱柴油发电机,按模块分期建设。
散热方面,采用双层钢结构框架,如图 3(a)空调系统建设过程和图 3(b)竣工阶段的照
片可以看出,钢结构上层用于安装冷却塔,下层用于分布式储水罐,同样可采用模块化分期
按需建设。由于谷歌机房多选址于气候凉爽电费便宜的偏远地区,土地也较为便宜,因此建
筑容积率不是很大问题,但因国情不同,国内市区的多层建筑结构机房则难以采用此模式。
图 3(a)安装制冷系统 图 3(b)空调系统建设完成
介绍完了机房外景,谷歌 Council Bluffs 数据中心的内景则如图 4 所示,一万多平方米的
偌大机房空间内密布着无数的 IT 机柜和服务器,以及顶部的供配电母线槽和架空地板下的
冷冻水供水管,服务器散热则由机柜热通道顶部的置顶空调盘管完成。由于该数据中心只是
单层建筑结构,整个机房大空间作为冷通道,除了部分支撑柱和少量功能间之外,基本没有
其他物理分隔。采用水消防技术没有传统机房的气体分区限制,市电直供和母线槽技术也消
除了传统机房的专用电力和电池室需求,采用空调置顶散热技术则不用传统机房两侧的精密
空调房,还有变配电和柴发外置以及冷冻站专门区域布置,使得机房空间内变得非常简洁。
这些具体的技术实现,先按下不表,后面会再详细展开。
图 4 Council Bluffs 数据中心的内景
由于机房建筑结构非常简单,且大型机电设备大多外置,因此谷歌数据中心内的空间利
用率很高,可以把很大部分的地板空间用于摆放 IT 机柜,因此每机柜容积比很低,大大提
升了机房内的空间利用率。图 5 是国内外部分数据中心的机房空间利用效率对比数据,可以
看到谷歌数据中心内的空间利用方面有很大的优势。
图 5 国内外数据中心空间利用率对比
二、供电部分
图 6 是谷歌某个数据中心的供电侧照片,由于谷歌的数据中心体量通常都很大,比如达
到 30-40M 以上的用电,因此往往机房周边专门区域建设有专用的变电站给庞大的机房供电。
图 6 谷歌数据中心供电侧照片
这里由于篇幅有限,中压部分就不再展开,但其总体思路是采用中压配电传输到机房边上,
靠近负载就近经变压器降压成低压,再通过低压母线排传输到机房内。从图 6 我们可以看到
模块化的户外型变压器及低压配电柜环绕机房周边,采用集装箱型的柴油发电机组作为变配
电的供电投切备份,柴发风管直立到屋顶上排风。经过变压器变压后的市电通过母线槽或者
线缆直连到机房内的机柜上方,直接给自带分布式 UPS 的服务器供电。
前面图 4 我们已经介绍过了谷歌的数据中心内部,母线槽是架设在机柜的顶部的,由前
面图 6 介绍的室外变压器降压后直接通过母线槽的方式架设在每排机柜顶部,再用机柜顶部
的配线盒连接到机柜 PDU。由于谷歌定制的服务器上自带有分布式小 UPS,因此谷歌的数据
中心内部不再有 UPS 室和电池室等,也没有列头柜等二次配电环节,每个服务器直接市电
直供,每个机柜也直接从机柜顶部的母线槽上安装的配线盒取电。如图 7(a)的这种供电
架构非常简单清爽,大大减少了线缆的采购和工程施工,而且非常灵活便于扩充机柜和带电
检修维护,运营起来也非常简单,还可以根据机柜的功率和用电可靠性情况灵活调整配线盒
来满足不同设备的供电需求,机房的空间利用率也非常高。
如图 7(b)所示谷歌的带小 UPS 的市电直供服务器大家都应该非常了解了,这里不再
详述只简要介绍,其原理是在服务器内安装底部的 12V 黑色铅酸电池用于市电停电保护,
市电正常时候,由于没有外部 UPS,市电直接给服务器供电,达到 99.9%的供电效率;当市
电停电后,直接挂接在 12V 输出上的电池短时放电,直至室外的柴发启动恢复服务器电源
带载。电池参与放电的时间基本不到一两分钟,因此电池的容量很小,大约只有 3.2Ah,备
电时间远远小于传统数据中心 15 到 30 分钟的电池备电需求,因此对柴发的启动要求很高。
我们前面知道谷歌的柴发是模块化直接安装在变压器旁边的,很有可能是低压柴发,其启动
很快。而且每台柴发对应一个变压器,没有复杂的柴发并机以及启动时序等问题,因此正常
情况下柴发启动时间可以控制在几十秒以内,一两分钟的电池备电时间基本上是够了,但这
对运维水平要求就非常高了。当然谷歌的软件架构和业务备份方面也足够强壮,甚至部分设
备停电也不会影响到业务正常运行,因此只有强大的技术实力才可以采用这种供电架构。
图 7(a)机柜顶部的母线及配线柜 图 7(b)谷歌的自带 UPS 服务器
前面详细分析了谷歌数据中心的供电架构,那么从建设的角度来看,由于数据中心外部
采用了工厂预制模块化的变配电和集装箱柴发单元,灵活配置按需模块化建设;而数据中心
内部,通过架设好机柜顶部吊装的母线槽,后面再根据机柜的部署进度按需安装机柜配线盒,
还可热插拔即插即用,没有复杂的线缆施工过程并大大减少线缆及配电施工质量问题,把传
统数据中心的机电工程安装,变成了简单的工厂预制产品拼接,大大缩减了项目建设时间。
三、空调部分
前面图 3 我们简要介绍了谷歌数据中心空调系统建设过程,即采用双层钢结构框架,下
层安装储水罐,上层用于安装空调冷却塔。图 8 是典型的谷歌 chillerless 数据中心示意图,
从这个图可以清楚看到空调模块和供电模块南北一一对应,分别给机房内的对应区域供水和
供电,模块化按需建设。对于空调部分,钢结构上层的冷却塔分为两种,白色的是大型开式
蒸发冷却塔,而灰色三个并排的是闭式自然冷干冷器,分别用于不同季节的空调散热。在夏
天会采用白色的开式系统散热,冬天则采用更为节能节水的灰色闭式干冷器。钢结构下层则
为多个白色的储水罐,用于储存冷却塔散热后的冷却水,兼作为市电停电或者冷机重启阶段
用的储水池,保证持续供冷。储水罐两侧还有散热水泵和板换等,后者用于机房内的冷冻水
和机房外的冷却水换热。在此机房的右下角还有两个冷却塔系统专用的柴发,用于给这些冷
却塔系统做掉电保护,和储水罐一起配合来确保数据中心持续供冷。
图 8 谷歌某个数据中心空调系统示意图
谷歌的目标是使用尽可能少的能源来为谷歌的产品提供动力,因此能不用机械制冷的冷
水机组就尽量不用,而谷歌的高效冷却塔系统就是在这方面所做的努力的典型。在北欧的几
个数据中心都实现了无冷水机组机房的设计和应用,但在一些夏季比较炎热的地区,谷歌还
是建设了冷水机组,以防温度或湿度过高情况下无法只依靠冷却塔来排热。谷歌只在万不得
已的时候才使用这些装置,一年中大部分时间都是靠板式换热器散热,尽量不开启冷机。
图 9 谷歌数据中心大型冷水机组系统
如图 9 所示的采用大型冷水机组的数据中心内,谷歌也是采用了模块化的建设思路。图
10 中在机房建设的初期,一次性建设好空调水系统的大型环网主干管路, 并采用隔离阀将
这些主干管路在多个机房模块间隔离分区,避免新建模块机房的管路影响到已投产机房模块。
大型主干管路上预留有一个个的冷却模块接入阀门,以及连接到机房内部的多个水平支管。
每组冷却模块和水平支管对应一定排数的服务器机柜,比如可以覆盖 4-5 长排的机柜排等,
不断按需扩容建设冷却模块和水平支管等。每个冷却模块都是模块化建设,包含冷水机组、
冷却塔、换热器、阀门系统、水泵和配电单元等,且新增冷却模块对原有系统影响很小。
图 10 谷歌数据中心主干管路的模块化扩展建设
在快速建设方面,谷歌创新的空调系统建设模式总结下来有三个特点,第一个是在机房
建设初期采用租赁设备的模式尽快让机房投入生产,在此同时建设剩余的永久性固定部分,
等机房全部建成后租赁的设备退还给设备租赁公司;第二个是初期采用风冷冷水机组或者混
合式冷却塔等设备,无需冗长审批申请流程,快速让机房投入生产,再滚动建设永久性部分;
第三个是模块化的空调子系统可以不断地增加并投入使用,且建设过程中的增加空调子模块
不会对已经投产的部分系统有较大影响,这几个特点大大加快了谷歌数据中心建设进程。
图 11 是某个数据中心建设的早期平面图,其中冷却模块 148 是租赁来的小容量冷却模
块,而 145 则是永久性安装的大型自购冷却模块。154 是主供水管,而 156 是主回水管,截
至阀 144 允许冷却模块 145 从整个空调系统中独立开来。类似的,租赁的小冷却模块 148
也通过接头 150 连接到整个空调系统中,并可由截至阀 146 从空调系统中独立开来。通常租
赁的冷却模块 148 要比自购永久性冷却模块 145 的尺寸和制冷容量都要小一些,比如方便采
用标准卡车方便拖运到现场,通过软接头等方式快速连接到空调主管路中提供额外的冷量,
也容易从主系统中拆卸和退租。这里补充说明一下冷却模块 145 还是 N+1 系统的+1 备用冗
余模块。
图 7 租赁空调系统和永久性空调系统的安装示意
数据中心建设的初期,租赁来的小冷却模块 148 投入建设并调试,同时还在机房内建设
好机柜及置顶空调等,然后再和冷却模块 148 一起经过测试验证环节,快速投入生产。由于
冷却模块 148 的制冷能力有限,以及随着 IT 负载不断增加的上架量,永久性的冷却模块 145
就需要被建设,但此时截至阀 144 仍处于关闭状态,不接到整个系统中。当 145 永久性冷却
模块完成建设,则通过 144 截至阀连接到整个系统中,并经过测试验证后投入使用。随着负
载的不断增加,新的 IT 机柜以及新的冷却模块不断被建设测试验证投入使用。
除了空调系统外,供电系统也可以采用类似的租赁方式快速满足早期的供电需求,比如
图 11 左下角的临时租赁供电模块 152 用于数据中心早期的负荷,随着负载的不断增加,永
久型的供电基础设施也被不断建设并测试验证投入使用。
四、机房内机柜建设模式
谷歌数据中心内部的建设也是模块化按需堆叠的模式来建设。图 12 是谷歌北卡数据中
心的内部实景,可以看到顶部是一排排的母线排,以及模块化热插拔配线柜;中间是模块化
的置顶空调,以及空调顶部的线缆桥架托盘;下面则是封闭的热通道框架,以及模块化的三
联柜安装泊位。具体每个变压器覆盖的母线排数量可根据每排机柜总功率密度有所调整,且
由于每排机柜内的供电和散热自成一体,排与排之间解耦,因此机房内不可以以机柜排为颗
粒度不断建设扩容。
图 12 谷歌北卡数据中心内部实景
图 13(a)是每排机柜的截面图,从这个图可以看到谷歌热通道及机柜的布局。热通道
框架内为空调盘管及散热风扇,热通道框架两侧三联柜机柜直接锁固在空调框架上,整个构
成 6 个 IT 机柜的微模块基本单元,并以此微模块颗粒度不断复制。IT 机柜及空调都从顶部
的母线排取电,整个机房大环境为冷通道,热通道内热气流自动上升,被置顶空调降温后自
然回流到机柜前面再次被服务器吸入,整个气流路径很短,且冷热隔离,散热效率非常高。
图 13(b)是数据中心内部新建设微模块置顶空调建设示意,新建一排机柜时,可通过
隔离帘子 725 隔离待建设部分和已投产部分,避免建设粉尘对已投产机房的影响。可通过叉
车将置顶空调及支撑框架以模块化方式在现场快速组装,这些串联的空调单元组成一个封闭
热通道,两侧形成两排机柜泊位等待 IT 设备到场安装。
图 13(a)谷歌微模块的截面图 图 13(b)置顶空调建设过程
我们知道谷歌数据中心的机柜颗粒度是三联柜整机柜,如图 14(a)所示,顶部还有 IT
机柜配线盒从供电母线排取电。这些三联柜机柜根据业务的不同配置,在服务器工厂以整机
柜的形式安装好服务器及网络,并连接好内部供电及网络线缆,运送到机房现场内后以图
14(b)的三联柜方式由现场建设人员推动安装到机柜泊位上,连接好供电和光纤线缆,即
插即用,快速投产。
图 14(a)谷歌三联柜机柜 图 13(b)三联柜安装示意
图 15 则是谷歌数据中心内部置顶空调机房建设过程中的局部照片,机房内部一排排支
撑架上是其封闭热通道顶部的置顶空调,架空地板下走水,而机柜上方是母线排,并通过软
管连接好冷冻水,与供电系统和冷冻水系统测试验证完毕之后等待整机柜交付。
通过前面的这些机柜排之间解耦,空调置顶微模块、模块化配电盒、三联柜等标准化建
设单元,工厂预制,现场快速拼装,达到数据中心内部的快速建设目的。
图 15 谷歌数据中心内置顶空调机房照片
五、集装箱模式
为了进一步提高交付效率,在一些应用场合谷歌还可能采用集装箱数据中心的模式建设。
集装箱数据中心具有多个益处。例如,可以以较大颗粒度的集装箱基本单元来建设,实现大
型数据中心的快速安装。数据中心的较多部分可以在工厂预先建设并且到现场快速部署;具
体地,集装箱和配套的基础设施可以被并行地建构,而不是传统模式下的顺次开展。数据中
心的关键部分可以是可移动的,并且可以容易地从一个地点运送到另一个地点。
图 15 谷歌数据集装箱数据中心建设示意
如图 15 中标识为 810 的这些可移动计算单元,可以被灵活搬运并快速投入使用,这些
各种功能单元的模块可以采用集装箱这种快速搬运的标准化方式运送到机房现场 890,并被
快速连接安装起来。一部分可能会从较远的地方轮船或者汽车运过来,也有部分如补水车以
及管道等可以从当地租用,数据中心场地可以是刚平整好的荒地、或者是水泥和沥青的平台
和停车场等,也可以是货物仓储等建筑。模块化计算存储单元 820/825 被运输到现场,可移
动的柴油发电机组 840 也被安装在现场,通过供电线缆 870 连接到 820/825 的 IT 模块上。
同样的,制冷散热单元 850(内含隔离换热器,也可能包括制冷机组或者混合式冷却塔等)
也通过管路 872 和 873 连接到 820/825 的 IT 模块上,用于给 IT 模块来散热。而制冷单元 850
则通过供水管 874 从供水单元 830 获得水补给。经过一段时间的运行后冷却塔的冷却水会有
沙子沉淀以及产生化合物沉积甚至军团菌等微生物污染等,因此部分冷却水从 876 水管排放
到污水回收单元 835 槽罐车内,再运送到污水处理厂处理。
此外,快速部署数据中心还包括光纤 878 以及网络进出口 860,也可以是偏远地区的无
线发射接收装置,还有监控管理单元等,这里不再一一罗列。甚至整个快速部署数据中心可
以建设在污水处理厂旁边,直接从污水处理厂处理后的清洁水来给数据中心散热,然后排放
的污水直接再次处理等。同样的,快速部署数据中心也可以直接建设在供电或者发电站旁边,
不再设置供电模块等。
六、总结
模块化建设思路是大规模数据中心的一个重要特点,可以大大提升数据中心的建设进度。
图 16 是传统数据中心和模块化数据中心(非谷歌数据中心)的项目进度表比较,可以看到,
通过模块化的建设思路,大大节约了规划设计时间,将原来工程化数据中心的串行建设模式,
变成并行建设的标准化建设模式,大大节约了项目时间,并且有很好的可复制性。
图 16 传统工程化数据中心和模块化数据中心的对比
本文简单梳理了谷歌的数据中心建设模型,如图 17 简要示意,从园区建筑的单层简单
框架式大开间结构,两翼供电、制冷模块化快速安装,到建筑内模块化机房分期建设,再到
机房模块内的微模块级复制堆叠,以及微模块内即插即用部署的三联柜整机柜最小颗粒度。
这种逐级模块化思路,大大简化了规划设计和机电建设,将传统工程化的数据中心建设模式
大部分转变成产品化堆叠方式,大大节约了传统模式下串行开展的时间。同时标准化模块可
复制性强,可以快速复制到新的建设项目中,避免了传统工程化数据中心各种独特的设计。
通过这些解构可以看到 google 把数据中心进一步拆分和简化,如同把大型 DC 变成了一个个
单细胞无性繁殖的生物,不断复制堆叠组合扩张,这比我们目前相对高等级工程化的哺乳动
物繁殖模式,无疑会更有效的适应生态环境变化。当然,国外的环境、生态、政策等不同,
谷歌数据中心的这些优秀建设方法很多并不能直接适用于国内,但其模块化理念和工业化/
产品化思路非常值得国内学习。

More Related Content

Viewers also liked

市电+高压直流和传统Ups供电架构对比浅析
市电+高压直流和传统Ups供电架构对比浅析市电+高压直流和传统Ups供电架构对比浅析
市电+高压直流和传统Ups供电架构对比浅析
ensoli
 
Май-Tech. Мобильные решения
Май-Tech. Мобильные решенияМай-Tech. Мобильные решения
Май-Tech. Мобильные решения
May-Tech
 
Google水冷服务器技术介绍
Google水冷服务器技术介绍Google水冷服务器技术介绍
Google水冷服务器技术介绍
ensoli
 
数据中心未来供电技术浅析 2
数据中心未来供电技术浅析 2数据中心未来供电技术浅析 2
数据中心未来供电技术浅析 2
ensoli
 
Google集装箱数据中心揭秘
Google集装箱数据中心揭秘Google集装箱数据中心揭秘
Google集装箱数据中心揭秘
ensoli
 
Google海上数据中心介绍
Google海上数据中心介绍Google海上数据中心介绍
Google海上数据中心介绍
ensoli
 
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
Jurarat Thongma
 
数据中心的高压直流之路
数据中心的高压直流之路数据中心的高压直流之路
数据中心的高压直流之路
ensoli
 

Viewers also liked (10)

How do app reviews influence app store ranks?
How do app reviews influence app store ranks?How do app reviews influence app store ranks?
How do app reviews influence app store ranks?
 
市电+高压直流和传统Ups供电架构对比浅析
市电+高压直流和传统Ups供电架构对比浅析市电+高压直流和传统Ups供电架构对比浅析
市电+高压直流和传统Ups供电架构对比浅析
 
Май-Tech. Мобильные решения
Май-Tech. Мобильные решенияМай-Tech. Мобильные решения
Май-Tech. Мобильные решения
 
Google水冷服务器技术介绍
Google水冷服务器技术介绍Google水冷服务器技术介绍
Google水冷服务器技术介绍
 
数据中心未来供电技术浅析 2
数据中心未来供电技术浅析 2数据中心未来供电技术浅析 2
数据中心未来供电技术浅析 2
 
Google集装箱数据中心揭秘
Google集装箱数据中心揭秘Google集装箱数据中心揭秘
Google集装箱数据中心揭秘
 
Google海上数据中心介绍
Google海上数据中心介绍Google海上数据中心介绍
Google海上数据中心介绍
 
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
โครงงานพระพุทธศาสนา เรื่อง บุญกิริยาวัตถุ 10
 
数据中心的高压直流之路
数据中心的高压直流之路数据中心的高压直流之路
数据中心的高压直流之路
 
Space Exploration
Space ExplorationSpace Exploration
Space Exploration
 

Similar to Google创新的数据中心建设方法介绍

Google数据中心微模块初探
Google数据中心微模块初探Google数据中心微模块初探
Google数据中心微模块初探
ensoli
 
BIM 项目执行管理应用案例 - 工業貿易大樓
BIM 项目执行管理应用案例 - 工業貿易大樓BIM 项目执行管理应用案例 - 工業貿易大樓
BIM 项目执行管理应用案例 - 工業貿易大樓
Stephen Au
 
Ask Weee Cloud Computing V0.2
Ask Weee Cloud Computing V0.2Ask Weee Cloud Computing V0.2
Ask Weee Cloud Computing V0.2
kevin_ke
 
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
Li Yi
 
1242982374API2 upload
1242982374API2 upload1242982374API2 upload
1242982374API2 upload
51 lecture
 
C A W D A J O P
C A W D A J O PC A W D A J O P
C A W D A J O P
51 lecture
 

Similar to Google创新的数据中心建设方法介绍 (12)

Google数据中心微模块初探
Google数据中心微模块初探Google数据中心微模块初探
Google数据中心微模块初探
 
云计算经济学
云计算经济学云计算经济学
云计算经济学
 
BIM 项目执行管理应用案例 - 工業貿易大樓
BIM 项目执行管理应用案例 - 工業貿易大樓BIM 项目执行管理应用案例 - 工業貿易大樓
BIM 项目执行管理应用案例 - 工業貿易大樓
 
Ask Weee Cloud Computing V0.2
Ask Weee Cloud Computing V0.2Ask Weee Cloud Computing V0.2
Ask Weee Cloud Computing V0.2
 
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
Patterns of Expertise in Cloud 云计算中的专家模式 QCon 2014 北京
 
2014 Hpocon 吴磊 ucloud - 由点到面 提升公有云服务可用性
2014 Hpocon 吴磊   ucloud - 由点到面 提升公有云服务可用性2014 Hpocon 吴磊   ucloud - 由点到面 提升公有云服务可用性
2014 Hpocon 吴磊 ucloud - 由点到面 提升公有云服务可用性
 
大規模微服務導入 - #2 從零開始的微服務 .NET Core 框架設計
大規模微服務導入 - #2 從零開始的微服務 .NET Core 框架設計大規模微服務導入 - #2 從零開始的微服務 .NET Core 框架設計
大規模微服務導入 - #2 從零開始的微服務 .NET Core 框架設計
 
微博平台混合云实践 - Docker全架构
微博平台混合云实践 - Docker全架构微博平台混合云实践 - Docker全架构
微博平台混合云实践 - Docker全架构
 
1242982374API2 upload
1242982374API2 upload1242982374API2 upload
1242982374API2 upload
 
C A W D A J O P
C A W D A J O PC A W D A J O P
C A W D A J O P
 
Gbs Sustainable Master Planning
Gbs Sustainable Master PlanningGbs Sustainable Master Planning
Gbs Sustainable Master Planning
 
Operation Logic Manager
Operation Logic ManagerOperation Logic Manager
Operation Logic Manager
 

More from ensoli

数据中心的高压直流之路
数据中心的高压直流之路数据中心的高压直流之路
数据中心的高压直流之路
ensoli
 
Google数据中心供电系统介绍
Google数据中心供电系统介绍Google数据中心供电系统介绍
Google数据中心供电系统介绍
ensoli
 
Google数据中心图片浅析
Google数据中心图片浅析Google数据中心图片浅析
Google数据中心图片浅析
ensoli
 
Google数据中心供电系统介绍
Google数据中心供电系统介绍Google数据中心供电系统介绍
Google数据中心供电系统介绍
ensoli
 
Google集装箱数据中心揭秘
Google集装箱数据中心揭秘Google集装箱数据中心揭秘
Google集装箱数据中心揭秘
ensoli
 
Google对数据中心成本模型的分析
Google对数据中心成本模型的分析Google对数据中心成本模型的分析
Google对数据中心成本模型的分析
ensoli
 

More from ensoli (6)

数据中心的高压直流之路
数据中心的高压直流之路数据中心的高压直流之路
数据中心的高压直流之路
 
Google数据中心供电系统介绍
Google数据中心供电系统介绍Google数据中心供电系统介绍
Google数据中心供电系统介绍
 
Google数据中心图片浅析
Google数据中心图片浅析Google数据中心图片浅析
Google数据中心图片浅析
 
Google数据中心供电系统介绍
Google数据中心供电系统介绍Google数据中心供电系统介绍
Google数据中心供电系统介绍
 
Google集装箱数据中心揭秘
Google集装箱数据中心揭秘Google集装箱数据中心揭秘
Google集装箱数据中心揭秘
 
Google对数据中心成本模型的分析
Google对数据中心成本模型的分析Google对数据中心成本模型的分析
Google对数据中心成本模型的分析
 

Google创新的数据中心建设方法介绍

  • 1. Google 创新的数据中心建设方法介绍 腾讯网络平台部数据中心规划组 李典林 邮箱:dufresne545@gmail.com 谷歌在过去 10 年中一直在建设自己的数据中心。搜索巨头的数据中心非常高效,利用 了可再生能源,并尽可能保护环境。目前 Google 依旧大举投资数据中心,最近三个月投资 了 16 亿美金,不得不说科技真的是第一生产力。 其实,很多年来,谷歌都有其独特的建造标准,比如说当地是否有良好的劳动力资源, 又或者有没有一个强大的电网接入能力,这可能是一个很关键的资格审核标准。最近谷歌还 增加了绿色问题考量的比重,比如说谷歌会考虑当地有没有提供可再生的能源供应的能力。 谷歌运营副总裁 Joe Kava 表示,在谷歌的理念中,长期效益不仅仅是指谷歌如何使用电 力来供应服务器,如何更快速的设计和建造数据中心同样也非常重要。他指出,位于乔治亚 州的数据中心历时 16 个月完工,而不是耗费 2 到 3 年的时间。谷歌已经建立了一整套设计 和建造数据中心的标准流程。谷歌通过模块化、低成本的设计来缩短数据中心的交付周期。 6 年前,谷歌在亚特兰大建设一处数据中心耗费了 16 个月时间。目前,在大楼建好之 后,谷歌通常只需要不到 1 年时间来完成数据中心的建设。因此除了技术领先之外,我们还 经常感叹于国外互联网公司快速的数据中心设计建设交付能力。相比之下,国内大规模数据 中心从规划设计到建成投产,整个周期往往长达 2 到 3 年。对于快速变化的互联网行业,很 多业务可能在不到一年内就爆发,或者说等机房建好之后就早已消亡,因此时间就是生命, 效率就是金钱,两三年的数据中心建设时间是不能接受的,因此非常有必要研究一下国外这 些领先公司的数据中心建设方法,以满足业务多变和快速需求的能力。本文谨以谷歌数据中 心的特点以及建设方法做些最粗浅的分析,纯属抛砖引玉,目的在于让更多同行来研究进步。 图 1 谷歌比利时数据中心全景 一、建筑布局篇 图 1 是谷歌比利时数据中心的全景图,这是一个较为典型的谷歌特色数据中心,从空中 俯视看到的庞大体量和氤氲升腾的水汽,绝对会让人联想到现代化的超级信息处理工厂,或 者说全力巡航的超级信息航母,虽然用航母来比喻不太恰当。但正是这些散布在全球的超级 数据中心,通过谷歌全球光纤和 Spanner 调度系统连接在一起成为超级航母战斗群。据统计 目前发送给和发送自谷歌服务器的流量如今占到了全美互联网总流量的四分之一,全球月独 立访问用户数超过 10 亿,成为全球互联网行业的超级巨擘。 从前面的照片上看,谷歌的数据中心建筑结构非常简单,主体机房为宽而矮的单层或者 双层建筑结构,船体的中后两舱为两个长宽形主体机房模块;船头为机房配套的功能区域,
  • 2. 如安保办公、设备拆包、接入弱电等;船体左侧为模块化变配电柴发区域,船体右侧是模块 化空调散热储水区域,水电分区,两翼作为巡洋舰和护卫舰等保障航空母舰的稳定可靠运行。 由于建筑建构非常简单,因此机楼主体建筑的建设时间也可以大大缩短,特别是采用了 框架式大开间结构,以及整体墙板拼接模式,机房框架的建设时间非常短,只有不到两个月 的时间即可完成。大开间结构和墙板拼接模式不但建设进度快,而且建筑材料可回收利用更 为绿色环保,此外也便于大型设备搬迁进出机房区域等,更为适合大型数据中心建设模式。 我们一起来回顾一下 2007 年始建的 Google Iowa 州数据中心的一些施工图片,2007 年 6 月, Google 在 Iowa 州 Council Bluffs 的数据中心启动建设,经过平整土地和简易桩基搭建起了 如图 2(a)的数据中心支撑框架,再经过图 2(b)中的工厂预制整体墙板吊装拼接,以及 其他道路防护等工程,整体机房建筑经过 7 个周多的施工,即可完工。 图 2(a) 数据中心支撑框架 图 2(b) 工厂预制整体墙板吊装拼接 机房主体建设的同时或者稍后,同步开展的还有机房两翼的机电支撑设备安装,前面我 们提到了谷歌采用模块化的供电和散热模块,因此其机电工程建设也可以采用模块化分期按 需建设。供电方面,通过室外型的变压器和配电柜以及集装箱柴油发电机,按模块分期建设。 散热方面,采用双层钢结构框架,如图 3(a)空调系统建设过程和图 3(b)竣工阶段的照 片可以看出,钢结构上层用于安装冷却塔,下层用于分布式储水罐,同样可采用模块化分期 按需建设。由于谷歌机房多选址于气候凉爽电费便宜的偏远地区,土地也较为便宜,因此建 筑容积率不是很大问题,但因国情不同,国内市区的多层建筑结构机房则难以采用此模式。 图 3(a)安装制冷系统 图 3(b)空调系统建设完成 介绍完了机房外景,谷歌 Council Bluffs 数据中心的内景则如图 4 所示,一万多平方米的 偌大机房空间内密布着无数的 IT 机柜和服务器,以及顶部的供配电母线槽和架空地板下的 冷冻水供水管,服务器散热则由机柜热通道顶部的置顶空调盘管完成。由于该数据中心只是 单层建筑结构,整个机房大空间作为冷通道,除了部分支撑柱和少量功能间之外,基本没有 其他物理分隔。采用水消防技术没有传统机房的气体分区限制,市电直供和母线槽技术也消 除了传统机房的专用电力和电池室需求,采用空调置顶散热技术则不用传统机房两侧的精密
  • 3. 空调房,还有变配电和柴发外置以及冷冻站专门区域布置,使得机房空间内变得非常简洁。 这些具体的技术实现,先按下不表,后面会再详细展开。 图 4 Council Bluffs 数据中心的内景 由于机房建筑结构非常简单,且大型机电设备大多外置,因此谷歌数据中心内的空间利 用率很高,可以把很大部分的地板空间用于摆放 IT 机柜,因此每机柜容积比很低,大大提 升了机房内的空间利用率。图 5 是国内外部分数据中心的机房空间利用效率对比数据,可以 看到谷歌数据中心内的空间利用方面有很大的优势。 图 5 国内外数据中心空间利用率对比 二、供电部分 图 6 是谷歌某个数据中心的供电侧照片,由于谷歌的数据中心体量通常都很大,比如达 到 30-40M 以上的用电,因此往往机房周边专门区域建设有专用的变电站给庞大的机房供电。 图 6 谷歌数据中心供电侧照片
  • 4. 这里由于篇幅有限,中压部分就不再展开,但其总体思路是采用中压配电传输到机房边上, 靠近负载就近经变压器降压成低压,再通过低压母线排传输到机房内。从图 6 我们可以看到 模块化的户外型变压器及低压配电柜环绕机房周边,采用集装箱型的柴油发电机组作为变配 电的供电投切备份,柴发风管直立到屋顶上排风。经过变压器变压后的市电通过母线槽或者 线缆直连到机房内的机柜上方,直接给自带分布式 UPS 的服务器供电。 前面图 4 我们已经介绍过了谷歌的数据中心内部,母线槽是架设在机柜的顶部的,由前 面图 6 介绍的室外变压器降压后直接通过母线槽的方式架设在每排机柜顶部,再用机柜顶部 的配线盒连接到机柜 PDU。由于谷歌定制的服务器上自带有分布式小 UPS,因此谷歌的数据 中心内部不再有 UPS 室和电池室等,也没有列头柜等二次配电环节,每个服务器直接市电 直供,每个机柜也直接从机柜顶部的母线槽上安装的配线盒取电。如图 7(a)的这种供电 架构非常简单清爽,大大减少了线缆的采购和工程施工,而且非常灵活便于扩充机柜和带电 检修维护,运营起来也非常简单,还可以根据机柜的功率和用电可靠性情况灵活调整配线盒 来满足不同设备的供电需求,机房的空间利用率也非常高。 如图 7(b)所示谷歌的带小 UPS 的市电直供服务器大家都应该非常了解了,这里不再 详述只简要介绍,其原理是在服务器内安装底部的 12V 黑色铅酸电池用于市电停电保护, 市电正常时候,由于没有外部 UPS,市电直接给服务器供电,达到 99.9%的供电效率;当市 电停电后,直接挂接在 12V 输出上的电池短时放电,直至室外的柴发启动恢复服务器电源 带载。电池参与放电的时间基本不到一两分钟,因此电池的容量很小,大约只有 3.2Ah,备 电时间远远小于传统数据中心 15 到 30 分钟的电池备电需求,因此对柴发的启动要求很高。 我们前面知道谷歌的柴发是模块化直接安装在变压器旁边的,很有可能是低压柴发,其启动 很快。而且每台柴发对应一个变压器,没有复杂的柴发并机以及启动时序等问题,因此正常 情况下柴发启动时间可以控制在几十秒以内,一两分钟的电池备电时间基本上是够了,但这 对运维水平要求就非常高了。当然谷歌的软件架构和业务备份方面也足够强壮,甚至部分设 备停电也不会影响到业务正常运行,因此只有强大的技术实力才可以采用这种供电架构。 图 7(a)机柜顶部的母线及配线柜 图 7(b)谷歌的自带 UPS 服务器 前面详细分析了谷歌数据中心的供电架构,那么从建设的角度来看,由于数据中心外部 采用了工厂预制模块化的变配电和集装箱柴发单元,灵活配置按需模块化建设;而数据中心 内部,通过架设好机柜顶部吊装的母线槽,后面再根据机柜的部署进度按需安装机柜配线盒, 还可热插拔即插即用,没有复杂的线缆施工过程并大大减少线缆及配电施工质量问题,把传
  • 5. 统数据中心的机电工程安装,变成了简单的工厂预制产品拼接,大大缩减了项目建设时间。 三、空调部分 前面图 3 我们简要介绍了谷歌数据中心空调系统建设过程,即采用双层钢结构框架,下 层安装储水罐,上层用于安装空调冷却塔。图 8 是典型的谷歌 chillerless 数据中心示意图, 从这个图可以清楚看到空调模块和供电模块南北一一对应,分别给机房内的对应区域供水和 供电,模块化按需建设。对于空调部分,钢结构上层的冷却塔分为两种,白色的是大型开式 蒸发冷却塔,而灰色三个并排的是闭式自然冷干冷器,分别用于不同季节的空调散热。在夏 天会采用白色的开式系统散热,冬天则采用更为节能节水的灰色闭式干冷器。钢结构下层则 为多个白色的储水罐,用于储存冷却塔散热后的冷却水,兼作为市电停电或者冷机重启阶段 用的储水池,保证持续供冷。储水罐两侧还有散热水泵和板换等,后者用于机房内的冷冻水 和机房外的冷却水换热。在此机房的右下角还有两个冷却塔系统专用的柴发,用于给这些冷 却塔系统做掉电保护,和储水罐一起配合来确保数据中心持续供冷。 图 8 谷歌某个数据中心空调系统示意图 谷歌的目标是使用尽可能少的能源来为谷歌的产品提供动力,因此能不用机械制冷的冷 水机组就尽量不用,而谷歌的高效冷却塔系统就是在这方面所做的努力的典型。在北欧的几 个数据中心都实现了无冷水机组机房的设计和应用,但在一些夏季比较炎热的地区,谷歌还 是建设了冷水机组,以防温度或湿度过高情况下无法只依靠冷却塔来排热。谷歌只在万不得 已的时候才使用这些装置,一年中大部分时间都是靠板式换热器散热,尽量不开启冷机。 图 9 谷歌数据中心大型冷水机组系统
  • 6. 如图 9 所示的采用大型冷水机组的数据中心内,谷歌也是采用了模块化的建设思路。图 10 中在机房建设的初期,一次性建设好空调水系统的大型环网主干管路, 并采用隔离阀将 这些主干管路在多个机房模块间隔离分区,避免新建模块机房的管路影响到已投产机房模块。 大型主干管路上预留有一个个的冷却模块接入阀门,以及连接到机房内部的多个水平支管。 每组冷却模块和水平支管对应一定排数的服务器机柜,比如可以覆盖 4-5 长排的机柜排等, 不断按需扩容建设冷却模块和水平支管等。每个冷却模块都是模块化建设,包含冷水机组、 冷却塔、换热器、阀门系统、水泵和配电单元等,且新增冷却模块对原有系统影响很小。 图 10 谷歌数据中心主干管路的模块化扩展建设 在快速建设方面,谷歌创新的空调系统建设模式总结下来有三个特点,第一个是在机房 建设初期采用租赁设备的模式尽快让机房投入生产,在此同时建设剩余的永久性固定部分, 等机房全部建成后租赁的设备退还给设备租赁公司;第二个是初期采用风冷冷水机组或者混 合式冷却塔等设备,无需冗长审批申请流程,快速让机房投入生产,再滚动建设永久性部分; 第三个是模块化的空调子系统可以不断地增加并投入使用,且建设过程中的增加空调子模块 不会对已经投产的部分系统有较大影响,这几个特点大大加快了谷歌数据中心建设进程。 图 11 是某个数据中心建设的早期平面图,其中冷却模块 148 是租赁来的小容量冷却模 块,而 145 则是永久性安装的大型自购冷却模块。154 是主供水管,而 156 是主回水管,截 至阀 144 允许冷却模块 145 从整个空调系统中独立开来。类似的,租赁的小冷却模块 148 也通过接头 150 连接到整个空调系统中,并可由截至阀 146 从空调系统中独立开来。通常租 赁的冷却模块 148 要比自购永久性冷却模块 145 的尺寸和制冷容量都要小一些,比如方便采 用标准卡车方便拖运到现场,通过软接头等方式快速连接到空调主管路中提供额外的冷量, 也容易从主系统中拆卸和退租。这里补充说明一下冷却模块 145 还是 N+1 系统的+1 备用冗 余模块。 图 7 租赁空调系统和永久性空调系统的安装示意
  • 7. 数据中心建设的初期,租赁来的小冷却模块 148 投入建设并调试,同时还在机房内建设 好机柜及置顶空调等,然后再和冷却模块 148 一起经过测试验证环节,快速投入生产。由于 冷却模块 148 的制冷能力有限,以及随着 IT 负载不断增加的上架量,永久性的冷却模块 145 就需要被建设,但此时截至阀 144 仍处于关闭状态,不接到整个系统中。当 145 永久性冷却 模块完成建设,则通过 144 截至阀连接到整个系统中,并经过测试验证后投入使用。随着负 载的不断增加,新的 IT 机柜以及新的冷却模块不断被建设测试验证投入使用。 除了空调系统外,供电系统也可以采用类似的租赁方式快速满足早期的供电需求,比如 图 11 左下角的临时租赁供电模块 152 用于数据中心早期的负荷,随着负载的不断增加,永 久型的供电基础设施也被不断建设并测试验证投入使用。 四、机房内机柜建设模式 谷歌数据中心内部的建设也是模块化按需堆叠的模式来建设。图 12 是谷歌北卡数据中 心的内部实景,可以看到顶部是一排排的母线排,以及模块化热插拔配线柜;中间是模块化 的置顶空调,以及空调顶部的线缆桥架托盘;下面则是封闭的热通道框架,以及模块化的三 联柜安装泊位。具体每个变压器覆盖的母线排数量可根据每排机柜总功率密度有所调整,且 由于每排机柜内的供电和散热自成一体,排与排之间解耦,因此机房内不可以以机柜排为颗 粒度不断建设扩容。 图 12 谷歌北卡数据中心内部实景 图 13(a)是每排机柜的截面图,从这个图可以看到谷歌热通道及机柜的布局。热通道 框架内为空调盘管及散热风扇,热通道框架两侧三联柜机柜直接锁固在空调框架上,整个构 成 6 个 IT 机柜的微模块基本单元,并以此微模块颗粒度不断复制。IT 机柜及空调都从顶部 的母线排取电,整个机房大环境为冷通道,热通道内热气流自动上升,被置顶空调降温后自 然回流到机柜前面再次被服务器吸入,整个气流路径很短,且冷热隔离,散热效率非常高。 图 13(b)是数据中心内部新建设微模块置顶空调建设示意,新建一排机柜时,可通过 隔离帘子 725 隔离待建设部分和已投产部分,避免建设粉尘对已投产机房的影响。可通过叉 车将置顶空调及支撑框架以模块化方式在现场快速组装,这些串联的空调单元组成一个封闭 热通道,两侧形成两排机柜泊位等待 IT 设备到场安装。
  • 8. 图 13(a)谷歌微模块的截面图 图 13(b)置顶空调建设过程 我们知道谷歌数据中心的机柜颗粒度是三联柜整机柜,如图 14(a)所示,顶部还有 IT 机柜配线盒从供电母线排取电。这些三联柜机柜根据业务的不同配置,在服务器工厂以整机 柜的形式安装好服务器及网络,并连接好内部供电及网络线缆,运送到机房现场内后以图 14(b)的三联柜方式由现场建设人员推动安装到机柜泊位上,连接好供电和光纤线缆,即 插即用,快速投产。 图 14(a)谷歌三联柜机柜 图 13(b)三联柜安装示意 图 15 则是谷歌数据中心内部置顶空调机房建设过程中的局部照片,机房内部一排排支 撑架上是其封闭热通道顶部的置顶空调,架空地板下走水,而机柜上方是母线排,并通过软 管连接好冷冻水,与供电系统和冷冻水系统测试验证完毕之后等待整机柜交付。 通过前面的这些机柜排之间解耦,空调置顶微模块、模块化配电盒、三联柜等标准化建 设单元,工厂预制,现场快速拼装,达到数据中心内部的快速建设目的。
  • 9. 图 15 谷歌数据中心内置顶空调机房照片 五、集装箱模式 为了进一步提高交付效率,在一些应用场合谷歌还可能采用集装箱数据中心的模式建设。 集装箱数据中心具有多个益处。例如,可以以较大颗粒度的集装箱基本单元来建设,实现大 型数据中心的快速安装。数据中心的较多部分可以在工厂预先建设并且到现场快速部署;具 体地,集装箱和配套的基础设施可以被并行地建构,而不是传统模式下的顺次开展。数据中 心的关键部分可以是可移动的,并且可以容易地从一个地点运送到另一个地点。 图 15 谷歌数据集装箱数据中心建设示意 如图 15 中标识为 810 的这些可移动计算单元,可以被灵活搬运并快速投入使用,这些 各种功能单元的模块可以采用集装箱这种快速搬运的标准化方式运送到机房现场 890,并被 快速连接安装起来。一部分可能会从较远的地方轮船或者汽车运过来,也有部分如补水车以
  • 10. 及管道等可以从当地租用,数据中心场地可以是刚平整好的荒地、或者是水泥和沥青的平台 和停车场等,也可以是货物仓储等建筑。模块化计算存储单元 820/825 被运输到现场,可移 动的柴油发电机组 840 也被安装在现场,通过供电线缆 870 连接到 820/825 的 IT 模块上。 同样的,制冷散热单元 850(内含隔离换热器,也可能包括制冷机组或者混合式冷却塔等) 也通过管路 872 和 873 连接到 820/825 的 IT 模块上,用于给 IT 模块来散热。而制冷单元 850 则通过供水管 874 从供水单元 830 获得水补给。经过一段时间的运行后冷却塔的冷却水会有 沙子沉淀以及产生化合物沉积甚至军团菌等微生物污染等,因此部分冷却水从 876 水管排放 到污水回收单元 835 槽罐车内,再运送到污水处理厂处理。 此外,快速部署数据中心还包括光纤 878 以及网络进出口 860,也可以是偏远地区的无 线发射接收装置,还有监控管理单元等,这里不再一一罗列。甚至整个快速部署数据中心可 以建设在污水处理厂旁边,直接从污水处理厂处理后的清洁水来给数据中心散热,然后排放 的污水直接再次处理等。同样的,快速部署数据中心也可以直接建设在供电或者发电站旁边, 不再设置供电模块等。 六、总结 模块化建设思路是大规模数据中心的一个重要特点,可以大大提升数据中心的建设进度。 图 16 是传统数据中心和模块化数据中心(非谷歌数据中心)的项目进度表比较,可以看到, 通过模块化的建设思路,大大节约了规划设计时间,将原来工程化数据中心的串行建设模式, 变成并行建设的标准化建设模式,大大节约了项目时间,并且有很好的可复制性。 图 16 传统工程化数据中心和模块化数据中心的对比 本文简单梳理了谷歌的数据中心建设模型,如图 17 简要示意,从园区建筑的单层简单 框架式大开间结构,两翼供电、制冷模块化快速安装,到建筑内模块化机房分期建设,再到 机房模块内的微模块级复制堆叠,以及微模块内即插即用部署的三联柜整机柜最小颗粒度。 这种逐级模块化思路,大大简化了规划设计和机电建设,将传统工程化的数据中心建设模式 大部分转变成产品化堆叠方式,大大节约了传统模式下串行开展的时间。同时标准化模块可 复制性强,可以快速复制到新的建设项目中,避免了传统工程化数据中心各种独特的设计。 通过这些解构可以看到 google 把数据中心进一步拆分和简化,如同把大型 DC 变成了一个个