上文我们介绍了Google数据中心微模块原理,下图是整个微模块空调部分的示意图,其中左边是挪走三联柜后(或者前面图中蓝色帘子)空调盘管的正视图,右边是从机柜尾端部看整排机柜的侧视图。这些图更有助于大家看到其气流组织,如下图箭头所示。当然这里采用了迎风面积更大、制冷能力更强的V型盘管,和前面图中所示的顶部一字型水平盘管原理一样,都是将机柜尾部散发出来的热量通过盘管内流动的冷冻水带走热量,然后通过顶部的大风扇将制冷后的冷空气重新循环回到机柜服务器的入口。 这些图清晰地展示了google置顶空调盘管及其支撑支架等细节,整个制冷模块宽度大约是6英尺或者72英寸的长度,刚好相当于3个外宽为24英……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
上文我们介绍了Google数据中心微模块原理,下图是整个微模块空调部分的示意图,其中左边是挪走三联柜后(或者前面图中蓝色帘子)空调盘管的正视图,右边是从机柜尾端部看整排机柜的侧视图。这些图更有助于大家看到其气流组织,如下图箭头所示。当然这里采用了迎风面积更大、制冷能力更强的V型盘管,和前面图中所示的顶部一字型水平盘管原理一样,都是将机柜尾部散发出来的热量通过盘管内流动的冷冻水带走热量,然后通过顶部的大风扇将制冷后的冷空气重新循环回到机柜服务器的入口。
这些图清晰地展示了google置顶空调盘管及其支撑支架等细节,整个制冷模块宽度大约是6英尺或者72英寸的长度,刚好相当于3个外宽为24英寸标准600mm宽的机柜宽度。每个模块最下面有标签为104的叉车预留槽位,用于叉车搬运和定位,以及底部标签为110的支撑,不但可以提供盘管的固定(盘管检修时候只需从支撑上将盘管拆卸下来更换即可),还预留出底部的气流通道用于盘管两侧之间气流的流通。这个抬高设计既可作为两边热通道的通道共享或者冗余,在两边三联柜的热负荷不一样的情况下还可以重新分配气流。地板底下的冷冻水供水管314,可以从带毛刷的112出口分出多路支管连接到116的盘管接口(采用快接头),给上方的空调盘管提供冷量。当然如果不想做架空地板的话,也是可以把供水水管放在V型盘管下方的左右两个通道内,减少架空地板的建设费用。google相关人士表示架空地板建设投资只占不到5%的机房建设成本,但可以规避带来的漏水风险,并带来检修便捷性等,这些考虑最终让google还是选择了架空地板的方案。
微模块顶部标签为120的是空调风扇阵列,由6个独立的标签为122风扇构成,其中124是风扇驱动控制器。这些风扇采用高效率的EC风机,加上V型盘管较大的迎风面,以及deltaT很高,因此风扇的转速很低压差很小,运行起来就非常节能。此外顶部风扇阵列周边的四根标签为128的支撑柱上面,可以安装网线布线等托架,用于机柜顶部的弱电信号等布线使用,充分利用了顶部空间还减少了专门架设布线桥架的投资。还有空调顶部突出标签为118的L型导轨横条用于机柜和空调之间的紧固,既固定了机柜,又密封了热通道。
前面的微模块单元图只是其中一个微模块的示意,当建设整个机房的时候,会有多个这样的模块不断复制和不断延伸,这个时候每个微模块单元就会不断延展成了一整排微模块阵列。此时,微模块间的热通道114和冷通道113就联通共享在一起了,这种情况下每个微模块还可以从附近的模块借冷量或者分散热量到周边的模块内,达到了微模块间的冗余。当其中的任何一个微模块内的盘管或风扇故障,甚至负荷过高,或者干脆负荷过低顶部没有放置盘管时,都可以从周边模块获取冷量,这样进一步提高了制冷模块间的冗余和系统可靠性。
上图是实际热通道内的照片,由加固框架支撑的制冷模块逐个排开,冷冻水供水软管从地板下穿过毛刷孔再连接到顶部的一字型水平盘管内,两侧全布满服务器(看图片似乎此定制服务器的厚度也是1.5U),蓝绿色LED发出的照明光显得很梦幻。
相关推荐
-
采用冰雪自然制冷 揭秘日本白色数据中心节约成本新举措
日本北海道美呗市白色数据中心(WDC)通过冰雪自然冷却,显著降低数据中心成本。据悉,该白色数据中心项目试验历时五年。
-
关于互联网+时代的数据中心:你得知道这些事
模块化数据中心建设为什么如此流行?什么样的制冷系统能够帮你降低电费清单?互联网+时代下的新一代数据中心如何建?
-
盘点数据中心7月份热门文章
本篇为您盘点数据中心7月份热门文章,迈阿密大学云为先策略为他们带来哪些益处?炎炎夏日,数据中心如何制冷?DC为什么在数据中心发展受限?
-
高密度数据中心如何制冷?
在数据中心中,制冷的重要性不言而喻。尤其是在炎炎夏季,为数据中心降温成为管理员们必须重视的问题。高密度数据中心制冷难在哪?如何为数据中心降温?