数据中心内设备的高密度部署是一种普遍的现象,但许多数据中心却没有足够的装备,以应对这些设施造成的额外散热要求。如果热空气在设备内昏环或者冷热空气混合、湿度控制不合理都会增加冷却的压力,生成高昂的费用。
本文分析在制冷量供过于求的情况下,量化旁路气流和再循环空气,评估高密度机架的冷却性能和效率,从提高送风温度和只提供IT负载所需的冷却量两方面入手,节省数据中心机房制冷系统能耗。
旁路气流会导致数据中心内空气不流通,以及致使冷空气流失,而再循环空气是旁路气流的帮凶。
一、数据中心内浪费的制冷容量
IT机架前的区域
数据中心环境中,冷风通过在IT机架的前方被设备内部。随着高密度设备的部署,IT机架的功率密度已经超过了所提供的制冷量,会导致设备散出的热再次被吸入,形成再循环空气。如图1所示。
瓷砖地板
有的数据中心地板是铺瓷砖的。瓷砖应位于IT设备的进气口,而不是在排气口附近。由于排气区域(空气出来的地方)运行温度比进气口的温度高,确保瓷砖(提供通风)位于正确的位置,以便空调装置更有效率地运行。此外,如今的数据中心需要更高的风速,这就要求地板下更大的压力,图2揭示了瓷砖地板出风口的预期流动速度范围。风力不足则不能供给机架顶部设备足够的制冷量,也会形成再循环空气,如图3所示。
冷却机架顶部的途径
通常,数据中心管理员克服制冷分布的途径是,让IT机架前的冷空气更冷一些。由于冷空气总在机架下方流动,所以美国热、冷冻和空调工程师协会对IT机架顶部的温度做了适当的规定。不可预测是是,IT设备中残留的热空气能和冷空气发生会混合,这就导致了一部分冷空气在发挥作用之前就被混合成了旁路气流。
热空气泄漏与冷空气旁路流失
在数据中心里,从IT设备入风口泄漏的热空气和冷空气混合限制了机柜密度的提升、提高了空气温度、降低了冷却效率。关于高密度数据中心制冷量的分布,把废热空气和冷空气隔离是一个正要的策略,如物理隔离、机架热控制、热通道和冷通道围堵遏制等方法都正在被数据中心采纳部署,但是并没有得到恰当的管理,再循环空气和旁路气流仍是问题。下面两组数字描述了机架热遏制对旁路气流与废热空气起到的作用。图4举例说明了,对一定IT负载的散热进行冷却时,旁路气流的产生比例。显然,冷却一定功率的IT设备需要比IT设备负载容量更多的制冷量。图5表明IT机架中西区域内的热空气泄漏是机架高压所致。可预知的其他热空气泄漏方式有:左右侧面板间隙、机柜门框和服务器安装的托盘导轨,热空气的泄漏会导致IT设备的进风口温度升高。机柜热遏制系统内的压力与IT设备内的气流量和机架的漏风通道有关,一个没有任何泄漏空气途径的密封机架,将形成更大的流量的压力。而冷热通道遏制系统的道理相同,可以用塑料、玻璃和硬墙隔板以帮助分离冷热空气,都有助于隔离冷热空气,有效的防止废热泄漏和旁路气流的产生。
当使用机柜时热空气泄露
机柜提供了一个切实可用的从热回风到冷送风的物理分离。利用机柜内的回流系统使得热空气传入,从而保证了物理分离,并允许来自CRAC/H中心的热空气泄露。依靠机柜内的负压把空气从机炉或者热容器里抽出,而这些是具有相当大的依赖性的,主要依赖于机房大小,机柜大小,以及机房空调的大小以及他们之间的距离,另外就是废气的流量。在天花板附近最接近的机房空调产生轻微的负压,这些可以用来抵消,帮助消除IT风扇产生的某些机架压力;但是,在机架中部和底部的压力很可能仍然是正的,从而为IT设备风扇创造了其他的热空气泄漏路径。那些里机房空调最远的机架,热空气泄漏情况越严重。在这一区域,那些机架上的正压可以为许多废热气流和降低机房空调单位流量所抵消。
混合系统下的泄露与旁路气流
在图6CFD模型是一个有70%的IT机架及被混合了的系统管理控制,这架热遏制系统表明在一个稳定的IT环境里,IT设备要求提供比自身功率多20%甚至更多的冷却量。正如在图6所示,20%的额外冷空气多数形成了的旁路气流。
二、制冷效率与容量的考虑因素
空调风扇及服务器风扇效率因素
当选择数据中心策略时,应整体考虑机房空调、风扇的性能和服务器效率,以及对数据中心机房制冷系统效率进行评估。
重要的是要注意风扇能量和气流没有线性关系。空气流动对风扇电源消耗也具有一定的影响。例如,通过一个风扇传输的冷空气,风扇电源本省就会消耗掉10%。所以,服务器风扇消耗更少的冷空气,也有助于整个电源和冷却设施提高效率。
丢失的机会成本-未实现的能力
滞留回收冷却将对最大化现有数据中心的生活产生重大影响。当供过于求的冷却,对业务的影响的负载明显小于设计负荷低。超额气流,由于低电源/返回温度而导致的机房空调的能力,低冷水机组效率和节约运营时间都导致了未能实现的能力。如图7,冷却过度供给的低效率说明可能意味着多达1.2兆瓦的搁浅或失去了一个2兆瓦的设计能力。
如图8,一个2兆瓦的设计说明部分加载到1兆瓦会浪费50%的机房冷却供应,以及30%的机房能源。50%的冷却为2兆瓦的设计荷载而供应过剩的时候,图8绿色曲线表明,只有1.3兆瓦的数据中心的能力是充分被实现的。随着机房风箱实现40%额定功率的全面控制,最后实现了容量为1兆瓦。另外,如果我们取消供过于求的冷却,由暗蓝色曲线图8所示,机房风箱只需要按额定功率的12%来实现1兆瓦的数据中心承载。用这个例子,说明了冷却风扇消耗20千瓦来分流1兆瓦的负荷,将消耗68千瓦来实现50%的负荷,用160千瓦来消耗100%的负荷。附加失去的机会成本因素来考虑在这样的分析下将包括:能够最大限度地增加密度,以最大限度地利用现有的空间,继续使用的成本效益和大型空气冷却处理,减少安装和服务的成本,降低了与用户的互动,加强了可用性,实现了数据中心免费热空气再循环。
三、总结
通过一个智能控制的冷却分配系统,重复利用因热空气泄漏和冷气旁流而造成的废弃冷却能力也不是不可能的。如果没有合理的管理技术去把回热气流与冷却设备分离开来,这样的物理障碍也极有可能在IT设备的操作中造成问题,它会在机柜间和狭小的过道之间产生泄露和空气旁流,同时也会影响用户在保持环境稳定和节约能源这方面的努力。当热空气在数据中心的上部积聚,以及被自动或者人工的打开或者关闭机房空调,又或者被用作控制空调或空气处理风扇的时候,对机柜间热空气流就会消耗掉供过于求的那部分制冷量。越具备接近为IT设备消耗匹配冷却设备的容量的能力,就越能改善冷却效率。
当一个托管冷却分配策略被采用之后,最大的节省将会来自于,你在使用像“冰柜”冷却还有空气处理设备这样已有的或者是熟悉的制冷系统,并通过检查机柜间以及地板的属性,最大化利用数据中心本身的能力。当数据中心的地板只是部分被占据的时候,这对于检测能源效率来说是极其有用;另外,在数据中心的整个运作过程中将得到更大的收益。最后,从定义它的角度来说,一个智能的控制系统,可以提供实时报告,通知报警,评估能力,同时也为数据中心的运作和个体客户在托管环境中“出谋划策”。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
采用冰雪自然制冷 揭秘日本白色数据中心节约成本新举措
日本北海道美呗市白色数据中心(WDC)通过冰雪自然冷却,显著降低数据中心成本。据悉,该白色数据中心项目试验历时五年。