下一代数据中心模样:保持低温

日期: 2013-02-21 作者:Stephen J. Bigelow翻译:张申佳 来源:TechTarget中国 英文

部分电力除了保持服务器和其他设备进行计算工作外还会产生热量,所以数据中心还面临的问题是在热量损坏设备之前将它消除。     数据中心运营的现状并不会改变,但是计算设备的冷却需求和为了达到那种冷却程度的技术已经日新月异。专家最近几年不会去预测革命性的冷却技术,但是依然持续改进各种冷却系统的采用。     冷却技术相辅相融。

未来数据中心无法完全依赖于机械制冷,但是非常有可能的是机房空调(CRAC)将会在10年内消失。Stanley期望未来数据中心的设计即能有传统又能有独特的制冷技术。“免费制冷并不是一个全有或全无的策略,”他说,“我见过某些数据中心使用免费制冷,蒸发冷却和一个小的制冷机来解决最后几……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

部分电力除了保持服务器和其他设备进行计算工作外还会产生热量,所以数据中心还面临的问题是在热量损坏设备之前将它消除。

    数据中心运营的现状并不会改变,但是计算设备的冷却需求和为了达到那种冷却程度的技术已经日新月异。专家最近几年不会去预测革命性的冷却技术,但是依然持续改进各种冷却系统的采用。

    冷却技术相辅相融。未来数据中心无法完全依赖于机械制冷,但是非常有可能的是机房空调(CRAC)将会在10年内消失。Stanley期望未来数据中心的设计即能有传统又能有独特的制冷技术。“免费制冷并不是一个全有或全无的策略,”他说,“我见过某些数据中心使用免费制冷,蒸发冷却和一个小的制冷机来解决最后几度的问题。”

    需要更加合适的数据中心地理位置。依靠环境的冷却能力在几乎任何地方都能采用,但是为了减少机械制冷的使用,下一代数据中心选址必须将依靠环境而进行冷却的能力考虑其中。比如,在沙漠中建一个数据中心,利用环境空气冷却的时间只能在晚上,那样高耗能的CRAC设备则不得不在白天高负荷运行。在未来10年,人们会将下一代数据中心建在气候寒冷的地方,靠近有冷水源的地方,地质适合的土壤下或者任何拥有环境冷却能力的地方。

    设备运行的温度升高。这是很简单的逻辑:当你选择制冷设备的时候首先要考虑这些设备不需要太多冷却要求。在2011年,美国热量、制冷和空调工程师协会(ASHRAE)更新了2004发布的“数据运行环境的热指导方针”文件,并强调了能够在升高温度和湿度水平的持续运营数据中心设备的两个新课题。比如,ASHRAE A4类别(目前最高等级)的计算设备能够在5摄氏度到45摄氏度相对温度,8%到90%的相对湿度内运行。

    然而,更高的运行温度(降低冷却要求)的动向并不是一个简单的事件;这是一个带领数据中心走过下个十年的过程。作为一家咨询和设计公司Shen Milsom & Wilke的主管,McFarlane指出服务器供应商已经开始为融合更高ASHRAE类别的服务器展开宣传,但是运营者们希望在数据中心温度被允许之前,所有升级的设备需准备就位。将成百上千的服务器替换成适应高温环境的可能需要几个科技更新的周期,才能使专业人员能够适应数据中心内升高的温度。

    McFarlane说如果升级的ASHRAE类别被服务器生产厂商广泛采用,耐高温能力的服务器也许会成为下一代服务器的一个标准功能,最终使得所有未来数据中心都能采用和适应升高的温度。

    渐进式的制冷技术一直在持续。尽管革命性的冷却方案并没有出现,但是下一代数据中心能够部署改进的制冷系统并合理运用各式各样的制冷方法。

    比如,McFarlane提到在制冷系统中使用变频技术的重要性。目前大部分机械设备均使用一个额定的速度运行马达(马达仅处于开或关状态),但是采用变速马达后能够节省大量电能。比如,水侧节能装置依靠马达泵来传输水和空气,但是利用更低的转速能使这些马达节省电能。在许多机房改建项目的情况下,利用变速装置和控制改造现有的泵和马达能够有效节约成本。

    合适的空气流通将会成为未来数据中心另一个重要属性。Stanley说过,除了最高密度的系统,气流的评估,控制和泄漏管理依然会对所有系统有效。“你可以利用合适的气流冷却至多每个机架20至25kw所产生的热量,”他说到,并指出大部分机架运行的功率仅约5至10kw。“这比我们今天看见的密度要高得多。”

    另一个渐进式的改进是将制冷介质和服务器进行一个更紧密的耦合。比如,与其用冷却水来冷却进入数据中心的空气,不如直接将水流经服务器机架或者甚至是服务器内部的处理芯片。虽然这些概念并不怎么创新,但是专家仍然赞同减少制冷源于制冷目标之间的距离是未来提升制冷效率的一个重要手段。

    或许最未来化的冷却方案是完全浸没式冷却——将整台服务器浸没在冷却液中,如不导电的介质比如油。在2012年的9月,Intel公司宣布将一整台服务器浸没在冷却液中长达一年的实验获得成功。在“直接接触式”冷却的帮助下,散热片基本上成为冷却片,能够允许甚至更高计算性能所需的更高时钟转速。 “这个方法最大的优势在于穿越,”McFarlane说到,“利用浸没法,在发电机和备份系统启动之前完全能够保证足够的热吸收能力来保证设备冷却。

    运行的可持续性是关键。下一代数据中心能够大量的减少对电力和制冷的要求,也完全有可能将传统的机械制冷淘汰。但是,对传输热空气或抽水依然有需求。制冷永远不会变成被动。

    但随着新设施的出现,最大限度地利用自然冷却,如利用空气和水的节能装置,运维人员正在推动这些技术的极限。不停地增长和持续性规划永远是数据中心制冷的最大问题。“基础设施运维人员必须提高警觉性并更严谨,”Uptime Institute的管理主任Vincent Renaud说到。“运营可持续性与效率一样重要。”

作者

Stephen J. Bigelow
Stephen J. Bigelow

数据中心和虚拟化网站的高级技术编辑,拥有20年的PC和技术写作经验。

相关推荐