“过去,认为每平米50W就已经是很高的密度了;但现在,一转眼的功夫,每平米的密度已经到了200-300W。而且这个密度还在增加。”ValiSorrell,美国纽约一家工程设计咨询公司SyskaHennessey集团的高级工程师如是说。他也是数据中心散热方面的专家。“为了让散热水平也能跟上去,我们需要足够多的气流和风量,而这给数据中心的基础设施带来了越来越大的压力。”
然而,这种局部的热点(hotspot)还只是问题的一部分。关键是,如果不加控制,热量会限制数据中心未来的扩展。
CDWBerbee是美国一家在多个城市拥有企业级数据中心的托管服务商。该公司数据中心经理WayneRasmussen说:“5年前,我有一段时间总担心机房空间会限制我的业务和数据中心的发展。但随着服务器机箱尺寸的缩小,我现在顾虑的不再是空间限制问题,而是热量密度的问题。”
那么,什么是最好的方式,以解决现在制冷的瓶颈问题呢?又如何建立一个完备的电源系统和冷却基础设施呢?随着经济的增长,一个满足数据扩张的机房系统你准备好了吗?下面介绍几种世界上被利用的新型的冷却技术。
Iceotope:一种新的液体冷却
采用“端到端液体”美国专业散热器制造商Iceotope宣布已经开发成功一款专为解决高集成度服务器高温问题而设计的产品。该公司宣布,服务器散热新技术将为用户节省93%的散热费用。Iceotope的新散热器将服务器主板包裹在一种惰性液体中,通过主机后泵使液体流经每个主板并带走热量。据官方介绍,如果为1000台服务器散热,新技术将在三年内节约高达788400美元的制冷费用,约合人民币500余万元。Iceotope在去年的美国波特兰举办的Supercomputing2009大展上已经公开展示过散热器的实物。
散热器将主板浸泡在惰性液体中,由于服务器集成度和性能水平都较高,因此其对散热的要求也相对苛刻。现在被很多超频玩家所推崇的水冷散热就是最早运用于服务器领域的技术。因此我们有理由相信,不久的将来,随着技术的成熟和成本的下降,这种为主板洗澡式的散热技术也将被家用电脑利用,那时不用担心你的风扇噪音的问题了。
快速冷冻水启动系统
当一个数据中心断电,我们的目标是让服务器必须不能宕机,还得需要冷却系统尽恢复。服务器我们通常采用不间断电源系统来保障系统不能中断,那么我们如何保证我们的制冷系统不能长时间的中断呢(机房空调系统不能接UPS电源),同时又可以保持制冷呢?去年江森自控开发了一套空调机组快速启动软件,可以三分钟重新启动,并返回到冷冻水设定点。
开发这套系统的目标是在发生电源故障之后,尽快重新实现冷却,以保护温度敏感设备。快速重启机组可避免数据丢失、过热导致的设备损坏及运营中断所带来的灾难性后果。快速启动功能可以在电力中断的短短25秒内重新启动机组,而一台常规的500冷吨机组则需要超过3分半钟的时间重启。该功能有两种配置方式:单机或连接到一个不间断电源(UPS)。利用UPS可以提供最快的重新启动,因为UPS可以保持控制电路和油加热器的供电,直到紧急发电机启动,从而避免控制面板的重新启动。
在这两种情况下,快速启动功能可最大限度地减少机组重新启动时间。它还减少了重新达到设定的冷冻水供水温度所需的时间。重新建立冷冻水供水温度是一个有关负载、压缩机能力和设定温度的函数。对于一台500冷吨的冷水机组,在低负荷时,如果不启用快速启动功能,机组可以在大约10分钟重新达到设定的冷冻水供水温度,而有快速启动功能机组大约只需要3分钟——快了百分之七十。
有了这样的一个系统性的保障我们的水冷空调系统就不会长时间因没有中央空调的冷冻水没有了制冷的能力造成数据的丢失!
利用无线机房监控系统来优化配置气流分配达到节能的效果,还可以通过机柜上的传感器感知机房的热点来调节送风的大小及时给服务器降温节能。
液冷却
针对大规模的数据中心,DCSCS(DataCenterStoredCoolingSolution,数据中心贮备型散热方案)可以在温度和电费都较低的非高峰运行时期,把水冷却并贮备起来,然后在高峰时间用来冷却机房。针对机柜层面,RearDoorHeateXchaner是一种4英寸深的单元模块,可以安装在服务器机柜后边,它可以提供多达5万BTU(英国热量单位)的散热效率。
模块化
近年来的另一个发展方向是模块化、完成密封的服务器系统开始流行,这些系统经常都整合成了液冷单元。比如“集装箱”式计算系统,如Sun公司的ModularDatacenterS20(即原来的Blackbox),以及RackableSystem的ICECube和Verari的Forest。微软近期则宣布正在美国芝加哥地区投资5亿美元,建设一个可以容纳150-200个“集装箱”(称为C-blocks)的大型数据中心,每个这样的“集装箱”包含1000-2000台服务器。
另外,通过使用APC或Liebert的一些产品,类似上述方法也可以在现有的建筑屋中实现。比如,去年斯坦福大学工程学院高性能计算中心要安装一台拥有1800颗CPU核,计算能力达到每秒14万亿次的超级计算机。
计算中心主任SteveJones说,“学校的数据中心只能给我们提供大约每机柜5KW的电力和相应的散热设备,但我们需要实现更高的计算密度,大约是每机柜20KW,因此学校的机房没法满足我们的需求。”
Jones没有浪费时间和金钱去新建什么数据中心,而是接管了一个没怎么得到充分利用的计算机实验室,然后使用APC的InfraStruXure系统,该系统在机柜中集成了供电和散热单元。然后由学校后勤部门负责把水管和电线铺好,由APC、戴尔和Clustercorp工程师组成的项目小组负责安装机柜和服务器。从设备到达现场,直到集群投入使用,总个过程只花了11天。
CDWBerbee在扩展其1.2万平方英尺的数据中心时,也采取了类似的办法。为了消除机房中的热点,CDWBerbee安装了8个20KW的LiebertXDH散热器和一个160KW的LiebertXDC冷却装置。
Rasmussen说,“我现在所有的系统都运行很正常。在大多数情况下,我们都把机房温度控制在22摄氏度。”
McFarlane说,“我处理过一些小型的数据中心,大约有20-30个机柜,对这种规模的数据中心来说,完全用液态机柜是很有意义的。但对于拥有成百上千个机柜的大规模数据中心来,我们今天还需要比这更好的解决方案。”
自然冷却——试试打开窗户
虽然人们习惯于把服务器封闭在一个房间里,但相反的做法也开始出现。比如,ESTECHInternational的MillenniumSeriesChillerOptimizer使用室外空气来减少机房对制冷剂或空调的依赖。这些节热器会监控室外和室内的环境变化,并决定可以用多大比例的室外空气来帮助机房达到最优的散热效率。
Sorrell说,“如果从机房回收来的空气非常热,这样相比下,直接使用室外的空气也许更有效。你可以选择在使用室外空气时让制冷站保持运行,或者当室外空气温度低很多时,可以把制冷站关闭,节省更多费用。”
他谈到,室外空气质量通常也足以用在数据中心,何况它还要经过一层过滤。同时使用室外空气也提供了一种备份的散热方案。在北半球高纬度地区,如果你的制冷站出了问题,你任何时候都可以使用室外空气。即使室外气温达到了32摄氏度,数据中心设备至少在1-2个小时内不会瘫痪。
毛里求斯球场海冷却数据中心
能否在岛国毛里求斯成为国际数据中心的枢纽?在西部印度洋经济发展官员认为,毛里求斯成为一个关键的枢纽,连接非洲,亚洲和中东地区。这方面的一个关键部分是得益于海洋,它的潜力是,可以以帮助数据中心运营商大幅削减其冷却成本。
毛里求斯生态园计划开发一个系统,利用海水,以支持数据中心的租户。生态公园计划建立一个管道系统,将扩大两英里的海上和高达1000米(3200英尺),海洋表面之下,那里的水是40华氏度(5℃)。寒冷的水将管道回数据中心的复杂和设施的冷却系统的使用。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
2017年超融合硬件发展走向:趋向模块化
HCI厂商最终会将节点分离为标准的计算模块和存储模块。HCI的客户将能够购买他们所需要的模块组合,并将这些超融合的硬件模块插入到机箱中以完成升级。
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。