据DCUG调查,98%的受访者表示,企业数据中心机房通风的进气温度一般都低于23.3°C,而且大部分制冷设备也都将温度控制在了21.1°C左右,甚至更低。但是根据DCUG的研究:温度低于81°(27.2°C)都属于过度制冷。因此,在目前大力提倡数据中心“节能”的环境下,调查报告中几乎每个受访者都在因此浪费电能。
“遵从旨在避免温度急速上升的保证使得用户过度冷却数据中心系统,而这会带来电能和金钱的极大浪费。”这是一项由英特尔、IBM、惠普、LiebertPrecisionCooling(艾默生网络能源分部)以及劳伦斯伯克力国家实验室共同进行的能效研究课题得出的最新成果。
据了解,此项研究课题的结果包括了来自数据中心用户群(DataCenterUsersGroup,以下简称DCUG)成员的调查报告。报告显示几乎每一个受访者都过分冷却数据中心,远远要超过实际冷却的需求——27°C(华氏80.6°),低于美国采暖、制冷与空调工程师学会(以下简称ASHRAE)的推荐标准。其实ASHRAE的推荐标准早在去年就已发布在《数据通讯设备环保指南》中,高端设备推荐进气温度从25°C至27°C。
在DCUG的调查报告中,98%的受访者中没有哪一家机房通风(computer-roomairhandling,CRAH)进气温度低于23.3°C,并且大部分的制冷也都将温度控制在21.1°C甚至更低。
温度低于华氏81°(27.2°C)都属于过度制冷,调查报告中几乎每个受访者都在因此浪费电能。根据调查显示,29%的受访者将CRAH温度控制在华氏70°(摄氏21.1°),另外竟然还有24%的受访者将将CRAH温度控制在华氏68°(摄氏20°)。过度制冷所带来的电能浪费可见一斑。
英特尔Larson在谈论高级制冷设备技术(AdvancedCoolingEnvironment),该技术旨在提供一个闭环控制的监测管理系统,允许服务器安全地将温度上升至ASHRAE推荐的最大值,由此能够带来相当可观电能的节省。Larson解释到,“浪费的电能来自CRAC(机房空调)风扇部件,过度地将冷却空气推送到系统中”。
即使用户减少一小部分数量的风扇,都会带来很多电能的节省。减少一半数量的风扇能够削减大约87%的能耗。制冷毋庸置疑需要相当的供电输出,让服务器“告知”CRAC部件其所需的制冷温度以及制冷时段并非听起来那样简单。
Larson指出CRAC制造商和服务器制造商的协议完全不同,前者为Modbus以及完全垂直相交的协议,而后者则为IPMI或者WS-MAN。服务器和制冷系统语言不一致构成了实现上述构想的阻碍。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
如何全面地看待服务器能源效能基准这件事
对于现代基础架构来说,服务器能源效能对于大多数企业数据中心来说很重要?还是说这只针对于大规模企业和主机供应商?