尽管数据中心权威并未直接表达过类似观点,但是业界对于这些关键性设备流行的做法就是“越凉越好”。然而一些领先的服务器制造商和一些数据中心效能专家则认为在无需牺牲正常运行时间的前提下,数据中心能够在比目前更高的温度下运行,能够节省大量由散热和二氧化碳排放所产生的相关费用。一家服务器制造商近日还宣布其服务器组群能够在进气温度为华氏104度(约40摄氏度)的环境下运行。
之所以要提升温度范围,是因为散热设施是一个能耗大户。一年365天24小时不间断运行的系统需要消耗大量的电能来创造最优的计算环境,其温度范围在华氏55到65度之间摆动(12.8到18.3摄氏度之间),而当前ASHRAE(美国采暖、制冷与空调工程师协会)推荐的热度范围18到27摄氏度之间。
为了实现效能,一些有影响的终端用户在较高温度下运行数据中心并且建议其同行效仿。但是这个过程并未像在家中提升恒温器那么简单,以下是摘录了一些关键的论点和想法。
数据中心的制冷问题受到了越来越多的关注
观点1:提升服务器进气温度会带来可观的能源节省
支持方:著名的硬件制造商和数据中心运营者Sun微系统公司估计每提升一度进气温度能够节省大约4%能耗成本。更高的温度设置意味着风冷或者水冷节约设备中更多自由冷却时间的可能,这条信息对于位于加州圣何塞市的公司更具吸引力,该地区一年中有 82%的时间温度低于华氏70度(包含),受惠于当地的天气特征,每年能够带来六位数能源支出的节省。(利用室外新风来制冷,或通过载冷剂将室外空气中的冷量引入室内的方法叫自由冷却这种方式一般适用于室外温度较低时。)
反对方:散热设施有着专门的设计设定,我们如何知道提升服务器进气温度不会导致额外的,不必要的诸如服务器散热扇、泵或者压缩机所产生的能耗?自由冷却对于新数据中心而言倒是非常棒的想法,但是对于当前的数据中心而言却是昂贵的建议。自由冷却的引入需要整个散热设施的重新工程化,高昂的价格以及不必要的复杂度则是阻力。热量相关设备故障或者停工费用会抵消由提升服务器进气温度而带来能源成本节省。
观点2:提升服务器进气温度使得可靠性,复原以及设备维修保养复杂化
支持方:进气以及废气在数据中心内部经常是混合在一起的。保持较低温度来抵消这种混合并且使得服务器进气温度控制在ASHRAE推荐的范围之内。提升温度使得现有热区更加恶化。低温能够为空间提供凉爽温度层,在散热系统失效之后能够体现出优势,工作人员可以有着更多的时间来诊断修复散热故障,必要的话也可以适时地关闭设备。从存储到网络的每一个设备如何在华氏104度服务器中体现出可靠性?所有的保证书都在华氏104度中有效?
反对方:提升数据中心温度是效能计划的一部分。温度的提升必须遵从最佳气流管理范例:使用备用面板、密封电缆中断器,消除在活动地板下的电缆障碍,把一些空气密封装置填满。上述措施能够有效地削减冷热气流的混合并且允许安全、可操作性的温度上升。
华氏104度服务器是鼓励数据中心运营人员讨论和调查的极端案例,在研究之后,曾经在华氏62度运行的设备就可以在华氏70度的温度下运行,而这种改变将会极大地提升能效,而无须损失可用性以及设备安全保证。
观点3:服务器并非人们所想的那样脆弱和敏感。去年的研究强调了现代硬件的弹性。
支持方:自2001年11月至2008年6月份,微软位于西北太平洋潮湿帐篷中的服务器一直处于无故障运行状态。采用空气侧的节能装置,英特尔以450个高密度服务器为准,温度高达华氏92度并且适度范围在4到9%之间,试验期间服务器故障率屡高于英特尔的企业及设备。数据中心推荐温度上限从之前的华氏77度上升至华氏80.6度。
反对方:高温,超时运行会影响到服务器的性能。随着温度的上升,服务器风扇响应速度会得到相应的增加,而这会削减设备的使用寿命。对于所有的商业化设备而言,英特尔和微软的数据中心研究并不具备普遍相关性。硬件寿命减短,更新速度越来越快。
结论:
提升数据中心温度的运动在增加,但是在所有的疑虑被打消之前依然面临着诸多反对方。考虑到可靠性和可用性位于IT职业人性能计划的顶端,到目前为止大多数人选择站在谨慎的错误一方:不惜任何代价保持较低的温度。尽管高温和可靠性并非绝对相互排斥,依然有办法在保护数据中心投资的同时增加设备的能效性。
温度是和空气流管理是分不开的,数据中心职业人士必须理解空气如何流通,进入并且通过服务器机架。计算流体动力学会有助于分析并且绘制数据中心空气流,但是由于制冷设备并不一直按照规格表现并且输入的一些数据可能会丢失一些重要障碍,实时监测和调整是保证计算流体动力学数据和计算精确性的关键要素。
随着空气流问题的解决,用户可以聚焦于寻找自己的“最佳点”,在商业要求和能效提升中完美的温度设定。寻找着一个切合点需要前摄的度量和分析,尽管这需要付出很多,但是由此带来的结合企业利益和责任于一体能耗支出、碳排放的削减也表明付出的努力是很值得的。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。