虽然数据中心需要持续供电,但保持通畅运行需要对消耗所有这些电力的设备所产生的热量进行冷却。随着数据中心功率密度的增加,气冷域值变小。自水冷式大型机以来,比气冷效率高出许多倍而且被数据中心经理回避的解决方案就是液冷。
但我们是否谈到将液体直接运行到我们的设备中呢?这当然是一个相关的概念,并且许多人使用其自己的数据包来保持其系统正常运行。或者我们谈到只是将我们的冷却系统从液冷换成气冷形式,而不是从气冷换成气冷形式,这取决于您询问的对象。大多数人可能会同意:当每个机柜负荷达到50kW时,我们已超过了气冷域值。在这种情况下,我们将需要回到通过液体管路直接运行到设备的时代,我认为我们还没有到那步。
特别是,如果您的数据中心功率密度每年都在增加,那么未来数据中心冷却将是从现在的液冷系统转变到气冷系统。现在,直接将液体运行到设备中是实验室里集中式计算系统,或者甚至是运行重要应用的一个或两个分散系统的理想选择。像德国IBM的研究中心等实验室,当前正在评估液冷技术。
IBM研究员BrunoMichel说,IBM目前致力于提供高性能液冷技术,宣称该技术可能实现零排放数据中心。
根据Michel在USENIX大会上做出的陈述表明,液冷技术可使数据中心在所有气候条件下以高于自然冷却限值的冷却液温度运行而无需冷却器,并且可以在寒冷气候下实现热能再利用。
事实很简单;液冷效率大约是气冷效率的10倍以上。但将液冷系统直接放到服务器上是否就是解决问题之道呢?这可能需要全面检查制造商的设备。你能想象数据中心做出此改变吗?这可能就像数据中心换成直流电源一样。
现在,只要负荷不超过通过活动地板砖的不合理CFM气流域值,那么从液冷换到气冷将是解决问题之道。说了这些,真正重要的是能够将冷却直接提供到所需要的地方,而不管介质是什么。包含行内冷却器或污染系统的制造商解决方案正在努力帮助解决该问题。
冷却数据中心的未来将依靠有希望使处理器只需较低功率即可运行的新技术和直接冷却所需地方的冷却解决方案。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。