虽然我不喜欢将任何数据中心的趋势称为潮流——一切事物总有其潜在的价值——某些技术过度炒作,其中一些已被证明言过其实,另外的还有待观察。 大量的数据中心关注冷却和湿度控制,大部分关心能耗,一些注重工作负载管理和性能优化,其他的关心数据中心设计和布局。本文主要研究现代数据中心丰富的冷却和湿度控制方式: 紧耦合或者热源冷却 更高的运行温度 免费冷却 蒸发或绝热冷却 密封冷却 烟囱式机柜和天花板风道 露点湿度控制 非集成加湿 智能互联的冷却系统 以上大部分措施的重点都在于:通过提高运行温度,利用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。 紧耦合或热……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
大量的数据中心关注冷却和湿度控制,大部分关心能耗,一些注重工作负载管理和性能优化,其他的关心数据中心设计和布局。本文主要研究现代数据中心丰富的冷却和湿度控制方式:
- 紧耦合或者热源冷却
- 更高的运行温度
- 免费冷却
- 蒸发或绝热冷却
- 密封冷却
- 烟囱式机柜和天花板风道
- 露点湿度控制
- 非集成加湿
- 智能互联的冷却系统
以上大部分措施的重点都在于:通过提高运行温度,利用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。
紧耦合或热源冷却
紧耦合冷却方式通过贴近热源来实现更有效的运作。这不算什么新东西——问问老的大型机操作员或任何笔记本电脑设计人员就知道了。虽然紧耦合冷却在数据中心里面还是“主流”,但是更新的方法在满足能源效率的需求方面往往做得更好,并获取更多关注。它的工作方式很简单:消耗能源来将大量的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。
更有前途的技术包括浸入式冷却:将服务器整个浸泡在矿物油里,以便使用最少的能耗获得极高的冷却效率。但是技术人员需要对内外布满了石油的服务器进行处理时,心里会怎么想?显然这种冷却方式并不是适合所有场景。
架空地板冷却的历史已经超过十年,正在经历新的演变,尤其是演变成为行级冷却方式。我们会继续改进行级冷却系统的设计和实现,行级冷却可以应付大部分环境,更强的冷却需求则由直接液体冷却接管。
直接液体冷却很久之前就过时了,但近期又回归主流。水带走热量的能力比空气高出3500倍;随着更强大的处理器进入市场,液体冷却几乎是无法回避的选择。液冷技术老树开新花,让水进入数据中心也不失为一种选择。
后门冷却器被人们接受的程度也非常高,部分也是因为水冷方式重新受到关注。
如果将巨大的机房空调系统取消,改用贴近设备的新型冷却方式的话,相信数据中心行业会运行得比现在更好。教育背景和希望与众不同的个人意愿或许会促生新案例,但成本和电源可用性的矛盾将决定最终结果。
更高的运行温度
美国供暖、制冷和空调工程师协会(ASHRAE)在2008年就第一次发表了关于较高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度达到华氏75到80°F(摄氏25至27°C),这些设备仍然能维持良好运作。服务器制造商实际上已经扩展了产品的运行温度范围,而且旧设备其实也和新设备一样能够在扩展的温度区间内运行。提高运行温度可以大幅度节省能源消耗,但人们首先需要认可这种处理方式,然后同意让热通道变得更热——想像一下100°F (38°C)的温度怎样?这会刺激后门冷却器的应用和普及。
但这只是开始。2011年ASHRAE参考方案允许入口温度提高到104 F (40°C),此温度仅针对2013新研发的设备。所以,我们未来很长时间内都不大可能在我们的数据中心看到这些更高温度级别的设备。即使我们有幸遇到这些设备,它们也很可能已经配备了水冷系统。
免费冷却
更高的运行温度通常也会让免费冷却系统一起受益。在ASHRAE 90.1-2010指导文件中,免费冷却几乎是一项节约能源的强制要求,必将被普遍运用。节能改造的资本投入会部分地抵消运营成本节约的好处。
但在改造或升级的同时实现免费冷却也是技术和投资上的挑战。预计未来两年内将出现新的标准,使免费冷却更具可行性。靠近水源的免费冷却将可能会更具优势,但我们将会看到更多类似日本Kyoto Wheel的空气冷却案例。最终,数据中心运营商将能够在超出以前预计的更多气候条件下采用免费冷却措施,这部分是因为更高运行温度的贡献。
蒸发或绝热冷却
虽然使用蒸发方式制冷的科学原理简单,并正在逐渐流行,但它对于大多数数据中心操作人员而言仍然显得新奇。绝热冷却通过降低封闭环境中的某种物质运行的压力来实现冷却,让这些物质沸腾如同岩浆涌上火山表面,同时用风带走山峰上的高温。
绝热冷却在温暖、干燥的气候中仍然有效,这大大拓宽了一年中能够“免费冷却”的有效期。其主要的缺点是用水量有些多,但在同等冷却量的情况下,它所需的冷却水仍然比标准冷却塔要少很多。
密封冷却
建设新的数据中心时,一定少不了某种形式密封冷却措施。它是数据中心中能见到的提高冷却效率和能源效率的最简单和最有效的措施。许多现有的数据中心也能从密闭化改造中大大获益。
密封方案令人印象深刻,它已被炒作成为“无所不能”的解决方案,应对各种冷却问题,供应商也在不断争论热通道或冷通道哪种更有效。这些争论对最终用户毫无益处,冷热通道解决方案只有依赖正确的设计和安装才能发挥作用。选择哪种方案,更多地取决于物理数据中心本身的侧重点。
密封措施也无法解决由于错误的冷却规划、空气流动不充分或冷却能力引起的过热问题。最新的国家防火协会商业标准(NFPA-75)可能会使密封冷却的方案更难实现。对喷淋和(或)气体灭火系统的改造将大大增加成本。除了要尽力避免错误的实施外,日常优化也很重要:在未使用的机架空间一定要安装盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好清理。
烟囱式机柜和天花板风道
使用天花板上方的空间形成的风道将空气传输给机房空调系统,确保回风以最高的温度返回空调冷却盘管,可以显著增加精密空调系统的冷却能力。
结合了吊顶风道和热通道措施的最终设备形式就是烟囱式机柜,可以获得最大的冷却效率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接通过吊顶天花板上方的风道回到空调设备中。整个过程中热空气和冷空气保持分离,所以可以保持很高的能效比。
虽然效果明显,但是烟囱式机柜并没有获得大力推广或被广泛接受。这可能是因为全密封式的设计灵活性更好,可以使用更多的机柜实现相同的效果。然而,烟囱式机柜可以让整个房间维持冷通道温度,让工作环境变得更加舒适。
露点湿度控制
根据露点(DP)而不是相对湿度(RH)来控制湿度已经在ASHRAE在2008年的TC 9.9中明确推荐,因此这并不是什么新潮技术。但绝大多数数据中心目前仍遵循RH规则。用户可能无法解释RH比DP好多少,但他们肯定更熟悉他们长期使用的RH参数数值:45%到50% RH.
但对于今天的高密度数据中心来说,数据中心内部的温差巨大,这使得RH数值毫无意义。相比之下,露点温度在整个房间的范围内基本上是一致的,所以这是一个更靠谱的湿度调节指标。因为大量的热源冷却设备没有提供湿度控制,又必须让控制湿度保持在露点以上来避免结露,DP控制是唯一手段。所以我真诚地希望它会成为一个数据中心的趋势,每个人都主动希望露点,形成优化能源效率的最新潮流。
非集成加湿
和DP湿度控制相伴而来的又一大需求是,在机房空调之外为房间增加湿度。根据不同的设计优化,非集成的加湿措施能节约更多能源。在远离潮流的今天,这类湿度控制系统只在极少数设计中出现。
智能互联冷却系统
新兴的冷却系统内所有各种冷却和湿度控制设备可实现自动交互和计算机控制,表现得更加精细和聪明。到目前为止,这类技术还仅限于少数厂家的产品。高效、节能的冷却正在变得越来越复杂,种类繁多的冷却产品类型和计算设备互相配合实现自我监测和自我调节功能,这是实现终极目标的唯一途径。如果您选择了具有这种调控能力的冷却系统,你肯定会从自动化中获益。通用控制系统可以集成不同厂商的产品系列,在将来这种集成将成为常态,因为这是合乎逻辑的趋势。
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。