Robert Sullivan因最先提出数据中心冷热通道遏制方案而闻名于世,他被誉为“冷热通道遏制之父”。自从近20年前提出冷热通道遏制方案后,Sullivan一直在与正常运行协会一起致力于数据中心冷却效率方案的研究。近日,他接受了TechTarget数据中心网站的专访,介绍他对冷热通道遏制、变频风扇及其它数据中心冷却技术的看法。 TechTarget:你提出数据中心冷却通道遏制策略已有17年时间,根据你的判断,这项技术如今的应用状况如何? Robert Sullivan:超过80%,但让我百思不得其解的是过去三到五年内所建的数据中心机房中还有采用传统设计方案的。
TechTarg……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
Robert Sullivan因最先提出数据中心冷热通道遏制方案而闻名于世,他被誉为“冷热通道遏制之父”。自从近20年前提出冷热通道遏制方案后,Sullivan一直在与正常运行协会一起致力于数据中心冷却效率方案的研究。近日,他接受了TechTarget数据中心网站的专访,介绍他对冷热通道遏制、变频风扇及其它数据中心冷却技术的看法。
TechTarget:你提出数据中心冷却通道遏制策略已有17年时间,根据你的判断,这项技术如今的应用状况如何?
Robert Sullivan:超过80%,但让我百思不得其解的是过去三到五年内所建的数据中心机房中还有采用传统设计方案的。
TechTarget:如今,有很多与冷热通道遏制策略类似的数据中心气流控制技术出现,对此你有什么看法?
Robert Sullivan:冷热通道遏制策略让我们迈出了数据中心冷热空气隔离的第一步。如果方法得当,在每个机柜内你可以处理10KW负载的冷却需求。除此之外,你还不得不采取一些其它措施:引入补充冷却资源,行级制冷,吊顶制冷,地板风扇等等。每个人都有他自己的冷却方案,但最终你都需要对冷热空气进行隔离。
一旦你采用了物理隔离措施,你所能冷却的负载量就取决于机柜所能接受的气流大小,无论是来自空调单元还是来自服务器风扇。如果你把机柜上装一个烟囱,将后端封闭,能够通过这个烟囱的气流也是有限的。如果超过了这个限度,机柜就会变成一个“气球”。因此,有很多气流是需要你从机柜后端强制将其送到前段的。
我对于热通道隔离非常钟爱。所有我需要做的就是提供足够多的冷空气,让其满足服务器冷却风扇的需求——这样的话我可以对任何负载进行冷却。我预计:如果有机柜可以装一个100KW的冷却风扇,我就可以在一个机柜内冷却100KW的负载。事实上我已经实现了在一个机柜内冷却40KW负载,目前在尝试将这个数字再增加20KW。机柜之所以会变成“气球”,是因为它无法接受那么多的气流。
TechTarget:你为什么更钟爱热通道遏制,而不是冷通道?
Robert Sullivan:因为我只有一个控制点。我需要做的就是提供足够的气流来满足服务器风扇的需要。如果我对冷通道进行隔离,我就要有20个控制点,因为我必须对进入每个冷通道的气流量进行控制,确保服务器风扇可以从冷通道获取足够的气流。我敢向你保证,除非你有非常尖端的设备和方案来调节气流量,否则进入冷通道的气流一定会过高,这样就会导致冷却效率下降。或许这样做你可以处理更高的负载,但却无法实现最高的效率。
如今,每个机房运行的温度都在77华氏度左右。这也是要进行气流隔离的另一个原因。即使你的每个机柜功率都不到20KW。如果你想将77度的气流送入机房,热通道隔离就是个不错的选择。
TechTarget:物理隔离措施是不是适合每个数据中心?
Robert Sullivan:你需要想个办法把气流送回冷却系统。无论是哪种冷却系统,都需要有这样一个路径,而且这个路径要进行隔离。如果你的顶棚是开放的,就很难对其进行隔离。但是,你也可以用一些扩展板。假设一个机房的气流控制器是6英尺高。如果我在每个控制器和热通道上边加4英尺的扩展板,就可以控制10英尺高的区域,这样就减少了顶部气流再流通的几率(因为热空气上升)。本质上讲你还是在隔离热空气。
TechTarget:请谈一下你对变频风扇(VFD)的看法,它能节约成本吗?
Robert Sullivan:首先,你要意识到如果你可以将风扇转速降至80%,就可以节省一半的电力。如果你有VFD系统,风扇的转速就永远不会超过80%。个人认为,你最好增加机房的冷却容量,然后把风扇转速降至80%以下。
TechTarget:目前,数据中心有许多最佳实践方案,对于提高冷却效率而言,你认为哪个方案会比较有效?
Robert Sullivan:很多人都在质疑空气侧节能方案,我也是其中之一。我认为,它不仅会导致尘埃颗粒的问题,对数据中心防火系统而言也是一个隐患。如果你的计算设备使用时间太长,你的部件上就会有很厚的尘土,这会影响设备的稳定性。但是,这是我可以接受的。我不能接受的是我们的防火系统轻易被启动,或是冷却系统随意被关闭。一些法规要求你具备一定的紧急备用电源(EPO)供应能力。它们都要求你在有火警发生时切断所有的气流流动。
每消耗一兆瓦的电力,你就需要循环150000 CFM的空气。这会带来很多的颗粒尘埃物,有可能会导致烟雾探测器失灵。我已经在机房安装了烟雾探测器,并且尝试利用风扇来吹走机柜上的尘埃。幸运的是所有人都会在机房工作,如果有什么事发生,我们都可以迅速做出反映。但是,如果没有人在,防火系统又关掉了,后果将是毁灭性的。这也正是我呼吁大家采用热轮的原因。这是一种空气侧的节能装置,不要任何转换器。长期来看,这是一个不错的选择。
翻译
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。