数据中心经理人在考虑采取何种方式,以达到最有效地保持设备低温。虽然数据中心进水可能是场噩梦,但是对于处理器数量日益增加的高效运转的数据中心服务器而言,通过水冷方式给服务器处理器降温可能很快成为最行之有效的一种散热方式。本文着重阐述了为何数据中心不必谈“水”色变。 旧瓶装新酒 1964-1990期间,大型主机采用的是水冷技术。
然后,出现了互补金属氧化物半导体晶体管制造技术。该发明大大降低了芯片自身运行时产生的热量并且能把热量排给空气制冷设备。在很多年里,水冷技术也一直被高性能个人计算机所使用。由于笔记本电脑内部空间狭小,空气制冷却起不到应有的作用,所以许多笔记本系统都是采用水冷技术。
……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
数据中心经理人在考虑采取何种方式,以达到最有效地保持设备低温。虽然数据中心进水可能是场噩梦,但是对于处理器数量日益增加的高效运转的数据中心服务器而言,通过水冷方式给服务器处理器降温可能很快成为最行之有效的一种散热方式。本文着重阐述了为何数据中心不必谈“水”色变。
旧瓶装新酒
1964-1990期间,大型主机采用的是水冷技术。然后,出现了互补金属氧化物半导体晶体管制造技术。该发明大大降低了芯片自身运行时产生的热量并且能把热量排给空气制冷设备。在很多年里,水冷技术也一直被高性能个人计算机所使用。由于笔记本电脑内部空间狭小,空气制冷却起不到应有的作用,所以许多笔记本系统都是采用水冷技术。
尽管水冷技术更实用,但由于低热负荷时空气制冷却成本也较低,所以IT产业转向使用空气制冷却。但随着时间推移,芯片越发密集,工作频率一路飙升,这两个因素都导致了电力需求和处理器热排量呈指数倍上升。
空气制冷却噪音大,加大空气制冷却能力需要增加风扇的数量,并提高风扇的转速。对于一台1U的机柜服务器,配备10台,12台或者更多变速风扇是很常见的。一台刀片服务器上的某个风扇出故障时,其余的风扇加速运转以加速空气流动,会发出类似喷汽机引擎的噪音。不论时间长短,人们都很难在这种巨大噪音环境里工作。
空气制冷却还会导致大量电力浪费。风扇耗能的增加量遵循立方倍增长的规律。所以当风扇速度增快一倍时,耗能约为原先的8倍。仅从能效这一指标就可以看出,高热负荷时通过大量的空气流动进行冷却不是一个可行的办法。
如果气流停止——甚至只是短时间——高价处理器会因为起保护作用的传感器未能快速中断受灾服务器而遭到毁坏。而少量水循环就可以弥合这个时间差。
在计算机发展过程中,我们经常把系统性能限制认定为“运算约束”或是“I/O约束”。而今天的处理器则是“热约束”。在传导热方面,水比空气有效得多。用于冷却时,水大约比空气有效3500倍。
有了水冷处理器,芯片和服务器厂商无形中被赋予了开发超大运算能力的机会。试想一下,使用一个更有效的冷却技术可能带来的成本节约和数据中心的成长可能性。
让各部件就位
最大的担忧在于渗漏:水不能和高价电子设备混到一起。厂商要想让大家接受水冷服务器,那么他就要让该设置既快捷又简单。如果普遍使用的硬件和水冷系统试运行的第一个版本被报告出有渗漏,行业就遭殃了。
供水设施是另一个关注点。我们一直使用的是并行冷却器,现在有时也使用后门冷却器。它们多数由供水管路充当。用于计算机的水冷却器也差不多。
避免渗漏的一个方法是建立直接管道。例如,交联聚乙烯(或“PEX”)管道就很适用于水冷却设备,诸如并行冷却器,以及居家和商业中使用的热辐射系统。这项产品在欧洲已经投入应用多年。但是用来与服务器直接相连的“软管”数量之多会造成比原有线缆更甚的杂乱局面。对于较大型而且灵活度要求更高的安装工程,需要有一个配管和连接点系统。
如果没有活动地板,管道就要架空,对多数人来说,这个做法更吓人。但实际上,合理安装的话,架空管道并不比活动地板下的管道更危险。管道应该沿着走道铺设,而不是架在机柜上方,而且要配备滴落盘作为“安全带”预防措施。但是管道方案在本质上并不危险。
对于许多人而言,最安全的方式莫过于把水管安装在活动地板下面--即使该地板不用作他途。如果安装了渗漏探测和地板排水系统,又把电源和线缆架空到天花板,那么渗漏就不会造成什么威胁了。水冷却系统中的水流压力不高,而且管道经过了绝缘包裹,所以不会引起爆炸或造成喷射。通常,排水系统要么是自吸式,要么被引导会主水源,因此实际上机房可能永远都不会被弄湿。
不论管道是在地上还是在头顶,只要做到合理安装和测试就不会经常渗漏,所以最保险的方法就是做到尽可能详细的说明。即使作为公共实体,需要选择低标价,一个详尽的规格说明能帮助你排除那些你不会想要的功能。但即使使用了高性能材料和最优良的安装方式,你可能也会想采取额外的预防措施。其中之一就是,在绝缘管道内部安装探测带--尤其当你唯一选择是架空管道时--这样能使问题一出现时就马上作出识别。
集管中应预留多个龙头接点,以避免将来需要“湿龙头”。湿龙头不仅风险高,而且理论上它相对于已事先焊接并做过压力测试成为结构一部分的龙头来讲更易渗漏。龙头上应该安装优质球形阀门,并作安全封闭,需要时才启用。
还请不要忘了软管。第一道防线就是防溢出连接件。集管和计算机之间的连接件需要隔一段时间更新置换。你不会想看到水从软管中喷涌而出淹没你的设备上,所以高质量的防溢出型连接件是必须的。
水对于数据中心来讲并不陌生
在许多案例中,数据中心早就跟水打过交道了--经常运行的是冷水机组或空调--所以只要了解了如何正确操作水冷却技术,你就没理由拒绝使用它。
相关推荐
-
谷歌数据中心空调系统建设三大特点
水对于数据中心来讲并不陌生,谷歌的数据中心多采用冷冻水系统,水冷的核心优势是输送水比输送空气成本更低,而且水的比热容比空气大得多。
-
机房空调设置不当所引起的设备故障
本文介绍了大型医疗设备机房的空调制冷系统的安装要求和必须注意的细节,以及制冷设备设置不当所引起的大型医疗设备(例如MR、CT)故障。
-
机房的空调为什么突然无法制冷?
数据中心或网络机房的维护人员总会碰到空调不制冷的情况,这些问题都会降低制冷系统的可靠性和可用性,导致形成热区,降低容错能力、效率和冷却性能。
-
数据中心精密空调工作原理及维护方案
本文列举了精密空调的注意点,我们在日常的机房管理工作中对空调的管理和维护,主要是针对以上部件去维护的。