热量是电子设备的敌人。根据 BCC, Inc. 的“Report GB-185R”,超过半数的电子故障由温度造成,并且由于这些热量源于不断升高的晶体管密度和运行速度,我们可以得出一个合乎逻辑的结论:在其他条件均相同的情况下,电子故障率也将不断攀升。
事实上,根据由 IBM、HP、Dell、Nortel、Cisco 等组成的“行业冷却协会”发布的信息,我们目前正处于大多数计算与通信电子设备热密度(瓦特/平方英尺)增长的最高峰(据 Uptime Institute(运行时间协会)的白皮书报告)。
温度会以许多不同的方式影响 IT 硬件,并且看似无关紧要的变化经常会对性能和经济性产生重大影响。Arrhenius 反应导致电容器使用寿命和半导体性能在高温作用下下降。有一个很灵验的经济法则,即环境温度每升高 10°C,IT 硬件的长期可靠性便会降低 50%。事实上,美国军方标准和Telcordia标准均将 CPU 使用寿命与温度相关联。有趣的是,我们注意到大多数 CPU 的工作温度范围上限均在 95°C 上下,但是 MIL-HNBK-217 和Bellcore数据却表明,在此温度水平下持续运行将会使 CPU 寿命限制为一年或更短时间,而降低 5°C 竟然可以使设备的预期寿命延长三倍。
一些芯片制造商已经能够制造明显更快且更强大的微处理器,但是由于缺乏应对多余热量的解决方案而无法将其投入实际应用。因此,无论是在芯片级、电路板级、壳体级或机架/机柜级,每一个为这些微处理器的冷却做出贡献的人员都会成为新一代计算能力的推动者。
了解高温对于 CPU 的影响以及对 IT 硬件进行更大程度冷却可以获得更高性能和经济利益的前景,我们见多识广的机房经理需要经受住投入更多机房空调机组 (CRAC) 或仅仅调低恒温器的诱惑。在有些情况下,这些举措仅仅是浪费;而在另外一些情况下,较冷的空气实际上可能会导致产生更严重的散热问题。正确的空气管理取决于强制空气对流热传导率冷却设备的原理至少有着基本的理解。大多数的机架安装设备采用风扇冷却。尽管有一些将空气由一侧移至另一侧的独立产品平台,但是通常情况下,还另设有 10-30 台 CFM 轴流式风扇以将空气由前端抽出,然后排到后端。
管理空气流动非常简单,就是使空气流动到需要的位置,而此过程的第一步是减少浪费的冷送风–从地下逃逸到没有起到冷却作用之处的空气。Triton Technologies 曾针对一百多个机房和数据中心中的地板冷却空气绘图,并且发现在绝大多数的场所中,输送到室内的空气有 50-80% 为浪费的冷送风。减少浪费的冷送风好处多多。
此外,将最冷的空气直接输送到最暖的设备排气,源空气与返程空气温差的降低问题整体将会变得更严重。可以采用全隔垫、全泡沫或特殊的面板隔断里衬(配有毛刷)封闭电缆周围。
仅仅增大静态压力还不能保证使冷却空气到最关键需求点的流动实现最佳化–在高架地板下方输送的空气必须具有方向性且必须予以正确的管理。高架地板空气管理产品与服务营销商 Triton Technology Systems 已积累广泛的实验法研究资料,其中指出不仅 CRAC 的气流倾向于混合,但如果 CRAC 的位置彼此成直角,则会导致冷却空气输出模式以地上机房中返程空气模式无法预测的角度偏转。在最好的情况下,此模式会导致运转中的冷却设备效率低下,从而导致成本的浪费;在最坏的情况下,会在机房中形成热点,从而危害计算设备的性能和数据的完整性。
将空气吹入机柜底部或从机柜顶部抽吸气体的高功率风扇不符合本文所介绍的原理。例如,此类风扇通常会同时从机柜的正面和背面抽吸或吹送冷却空气,因此会冷却废气(返程气体),降低源空气与返程气体之间的温差以及降低CRAC 的效率。
数据中心设备的冷却方案不需要是神秘的技法,但是经常需要超乎常识以外的认知,尤其因为高架地板砖的下面发生许多我们看不到的活动。切记以下要点:仅将冷空气用在设备确实需要之处;避免将“用过的”返程空气与源冷却空气相混合;以同一方向,彼此平行的方式布设空气与地板下的电缆,使环境显得简单且可以预测;最本质的东西是输送有效的冷却量,而不仅仅是排掉热空气。
最终,当地板下静态压力实现最大化从而确保最佳的冷却空气 CFM 输送,且数据中心中的 CRAC 和设备机柜的布置最理想时,站点管理员必须避免这一常见的倾向:将最热的设备放置在最靠近 CRAC 的位置。CRAC 直接流出的空气速度经常可能会更高,而无法向上偏转,从而通过太靠近 CRAC 的网孔地板砖。事实上,根据文丘里效应的物理学原理,流经附近网孔地板砖的冷却空气速度可能很大,足以将室内空气和/或受热的返程气体抽到地板下空间中。因此,不仅靠近放置不能将冷却量传输到最热的设备,而且还可能会导致传输到整个房间内的冷却空气温度上升。本文建议避免将网孔砖布置在太靠近 CRAC 的位置,并且尽可能将无源的连接设备布置最靠近在 CRAC 的位置,以使空间利用率最大化。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
采用冰雪自然制冷 揭秘日本白色数据中心节约成本新举措
日本北海道美呗市白色数据中心(WDC)通过冰雪自然冷却,显著降低数据中心成本。据悉,该白色数据中心项目试验历时五年。
-
关于互联网+时代的数据中心:你得知道这些事
模块化数据中心建设为什么如此流行?什么样的制冷系统能够帮你降低电费清单?互联网+时代下的新一代数据中心如何建?
-
盘点数据中心7月份热门文章
本篇为您盘点数据中心7月份热门文章,迈阿密大学云为先策略为他们带来哪些益处?炎炎夏日,数据中心如何制冷?DC为什么在数据中心发展受限?
-
高密度数据中心如何制冷?
在数据中心中,制冷的重要性不言而喻。尤其是在炎炎夏季,为数据中心降温成为管理员们必须重视的问题。高密度数据中心制冷难在哪?如何为数据中心降温?