您的数据中心正在使用怎样的冷却策略?您的数据中心是不是总有几台精密空调在永不停息运转,将冷空气吹到机房静电地板下的空间里,再从多孔地板送入一个又一个机柜,通过这种方式来努力维持机房温度?如果是这样的话,您很可能正在浪费大量的电能,那也是大笔的金钱。现在有几种新的冷却方法和技术能提供较好的短期投资回报,还能为公司带来持续的财务收益。 首先,请确认您的数据中心是否把运行温度设置了得太低了。美国采暖、制冷和空调工程师协会(ASHRAE)自2004年起一直在跟踪研究常见类型的数据中心建议温度和容许温度。
数据中心温度的最高极限在2004年被设定为77华氏度(25摄氏度) 到2008年,……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
您的数据中心正在使用怎样的冷却策略?您的数据中心是不是总有几台精密空调在永不停息运转,将冷空气吹到机房静电地板下的空间里,再从多孔地板送入一个又一个机柜,通过这种方式来努力维持机房温度?如果是这样的话,您很可能正在浪费大量的电能,那也是大笔的金钱。现在有几种新的冷却方法和技术能提供较好的短期投资回报,还能为公司带来持续的财务收益。
首先,请确认您的数据中心是否把运行温度设置了得太低了。美国采暖、制冷和空调工程师协会(ASHRAE)自2004年起一直在跟踪研究常见类型的数据中心建议温度和容许温度。
数据中心温度的最高极限在2004年被设定为77华氏度(25摄氏度) 到2008年,这个温度极限被提升到81华氏度(27摄氏度)。到2011年,ASHRAE建立了一系列数据中心模型,虽然建议的温度维持不变,仍然是81华氏度(27摄氏度),但是最高容许温度被提升到113华氏度(45摄氏度)——超过此温度则会观察到设备故障率明显上升。和防范设备故障风险相对应的是,较高温度的数据中心的冷却需求低得多,使用的精密空调(CRAC)机组更少,能耗也得到降低。
最简单的省钱途径就是:减少CRAC精密空调机组开机运行的数量。如果只有一半的制冷量是必要的,关掉另一半精密空调机组将直接节约不少电费——还有对应的机组维护成本。 使用可变速的而不是恒速的精密空调机组也能达到类似的省钱效果,这些空调自动降速,仅运转在维持设定温度必要的速度上,避免无谓的空转。空调机组只有在100%满载时的能源效率最高,所以,一些变速机组在低速运行时,并没有运行在用电效率最高的负载点,还有优化的余地。
根据以上思路,使用标准、固定功率的精密空调机组,建立“热惯性”冷却系统更划算。在这种冷却方案下,数据中心先被强力冷却到低于需要的温度,空调单元停机待命,让数据中心温度自行缓慢上升,当温度上升到设定的上限时,精密空调单元重新启动运转,开始新一轮制冷循环。通过这种运行方式,机组在每个周期都运行在效率最高、最经济的满载状态。 当然,机组关闭周期会有无限大的能源效率比——因为根本就没耗电。
然而,如果对空气冷却和流动的全过程不进行仔细分析,直接就根据建筑容积来设计数据中心制冷方案,其结果必然会造成浪费:大多数被冷却的空气都无法和IT设备足够接近,也就不能对这些设备进行有效冷却。
图1:冷/热通道
作者
数据中心专家,IT研究和分析公司Quocirca的联合创始人兼服务主管,该公司总部设在英国Longbottom,并在该领域拥有超过15年的经验。拥有化学工程背景,他从事工作过自动化,有害物质控制以及文档管理和知识管理项目。
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。