数据中心模块化最近较为热门,笔者从一个google的集装箱数据中心专利(其实该专利在2009年已经公开,网络上也有不少相关图片),以及网络上相关Google的集装箱数据中心的视频,第一部分介绍了谷歌数据中心原理。下面看看配电。 下图是整个集装箱的截面图,这个图更有助于大家看到其气流组织,由机柜底部送出的冷量在中间的312冷池内被两侧的服务器吸入,经由服务器的风扇315吹到服务器尾侧的309热通道内,再经地板下的空调盘管116制冷后由离心风机119吹回冷通道内,形成如下A?B?C?D的整个气流循环,气流组织非常短,风机能耗及冷量传递损失都很少,效率很高。 标准集装箱的宽度只有2.……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
数据中心模块化最近较为热门,笔者从一个google的集装箱数据中心专利(其实该专利在2009年已经公开,网络上也有不少相关图片),以及网络上相关Google的集装箱数据中心的视频,第一部分介绍了谷歌数据中心原理。下面看看配电。
下图是整个集装箱的截面图,这个图更有助于大家看到其气流组织,由机柜底部送出的冷量在中间的312冷池内被两侧的服务器吸入,经由服务器的风扇315吹到服务器尾侧的309热通道内,再经地板下的空调盘管116制冷后由离心风机119吹回冷通道内,形成如下A?B?C?D的整个气流循环,气流组织非常短,风机能耗及冷量传递损失都很少,效率很高。
标准集装箱的宽度只有2.35米,考虑两排机柜并列,还需要冷通道维护空间及两侧热通道回风需要,这里可以推断出google的服务器深度实际是很短的,初步估计含机柜不超过700mm。这种短宽深度的设计也非常适合于服务器散热,较为容易实现高温服务器的目标,据google的介绍,其冷通道送风温度高达27度甚至更高,因此提升冷通道送风温度的节能效果非常明显。
下图的空调特写部分更为清晰展示了其原理,其中116为A字型空调盘管,122供水管和125回水管通过快接软管连到该空调盘管上,降温后的冷空气由导风槽202及离心风机119甩到架空地板上的冷通道内,集装箱内的热量由空调冷冻水带到集装箱外。每个空调盘管对应三个风扇,冷却风扇速度可变,并可以精确管理,保证风扇在能够冷却机架的前提下运行在最低速度。
Google集装箱数据中心的设计着重于“电源在上,水在下”,机架从集装箱的天花板悬挂下来,冷却设备在机架下面,让冷空气通过机架。上图是服务器尾部的电源线连接,下图是服务器前部的网络连接,但实际根据google公布的集装箱数据中心视频,服务器的供电和网络接口都建设在冷通道一侧,实现完全的前维护或者冷通道维护,因为服务器后面热通道的宽度实在有限,难以进人维护,以及热通道的温度高达40多度,也不适合运维人员高温操作。
据google自己公布,其IDC的PUE值从2008年第三季度的1.21下降到2008年第四季度的1.16。PUE 为 1 表示数据中心没有能源损耗,而根据2006年的统计,一般公司数据中心的能效比为 2.0 或更高。Google 的 1.16 已经低于美国能源部2011年的1.2 的目标。Google集装箱数据中心实现低PUE的几个最佳实践方法大家可以从参考资料的视频地址中找到。
第三部分我们将介绍谷歌数据中心供配电。
相关推荐
-
数据中心硬件采购vs.自建:哪个更适合你?
对IT团队来说,数据中心硬件的选择更偏向于哲学层面而不是技术层面。是搭建自己的硬件还是购买即插即用的集群好呢?
-
采用冰雪自然制冷 揭秘日本白色数据中心节约成本新举措
日本北海道美呗市白色数据中心(WDC)通过冰雪自然冷却,显著降低数据中心成本。据悉,该白色数据中心项目试验历时五年。
-
关于互联网+时代的数据中心:你得知道这些事
模块化数据中心建设为什么如此流行?什么样的制冷系统能够帮你降低电费清单?互联网+时代下的新一代数据中心如何建?
-
IHS发布官方报告:华为集装箱数据中心2014年发货量全球第一
全球知名分析机构IHS近期正式发布2014年度集装箱数据中心报告。华为集装箱数据中心2014年发货量全球第一,占全球份额11%。