关注美国加州严重旱灾的各地媒体,目前关注的焦点一直是居民及农业用户。工业用户比如数据中心在很大程度上一直都被忽视了。 在最近的几十年中,美国西部一直在承受旷日持久的系统性干旱。根据美国干旱监测数据,加州超过70%的地区最近处于极度干旱状态,接近一半的地区处于异常干旱状态。
人口增长以及其后的变化将会额外增加全球的水资源需求量。水短缺问题不会消失。 华尔街日报最近的一篇文章对准了数据中心行业,声称中等规模的数据中心每年的用水量达到了1300万加仑,相当于100英亩的杏树、三家医院或者两个18洞的高尔夫球场每年的用水量。 华尔街日报中提到的中等规模数据中心(15兆瓦)的概念与用水量并不成比例。
根据……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
关注美国加州严重旱灾的各地媒体,目前关注的焦点一直是居民及农业用户。工业用户比如数据中心在很大程度上一直都被忽视了。
在最近的几十年中,美国西部一直在承受旷日持久的系统性干旱。根据美国干旱监测数据,加州超过70%的地区最近处于极度干旱状态,接近一半的地区处于异常干旱状态。
人口增长以及其后的变化将会额外增加全球的水资源需求量。水短缺问题不会消失。
华尔街日报最近的一篇文章对准了数据中心行业,声称中等规模的数据中心每年的用水量达到了1300万加仑,相当于100英亩的杏树、三家医院或者两个18洞的高尔夫球场每年的用水量。
华尔街日报中提到的中等规模数据中心(15兆瓦)的概念与用水量并不成比例。根据Uptime Institute的调查数据,数据中心平均规模大约为1兆瓦,每年消耗的水量大约为700万到800万加仑,相当于6英亩杏树、5洞高尔夫球场每年的用水量,或者比一家医院每年用水量的1/3少一些。
不管华尔街日报中提到的数据是否准确,公众已经开始关注数据中心的水资源消耗情况。让我们分析一下数据中心如何消耗水、能够减少水资源使用量的设计方案,以及整个IT行业对解决该问题的态度。
数据中心如何使用水资源?
数据中心使用水的主要目的是散热(也就是冷却IT设备)。冷却数据中心的传统方式是使用水冷式冷冻水系统。在这些系统中,冷水分布在计算机机房的制冷单元中。风扇吹过冷冻水管,向IT设备提供冷空气。然后水流回到冷却装置中被重新冷却。水冷式冷却系统依靠冷却塔吸收热量。冷却塔是一个很大的盒状单元,利用水与空气流动接触后进行冷热交换产生蒸汽,通过蒸汽挥发带走热量达到蒸发散热降低水温的效果。
在传统数据中心设计中,冷却塔是消耗水资源的罪魁祸首。我们假定1兆瓦的数据中心通过冷却塔每分钟泵送1000加仑的冷凝水,会有1%-2%的水被蒸发、作为细水雾被风吹走。结果就是每年大约会消耗670万加仑水。
另外每年大约会消耗130万加仑水用于排放或者更换。冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘以及其他污染物。这些水必须被定期处理并排放。
总的来讲,使用传统制冷方式的1兆瓦数据中心,每年用水量大约为800加仑。
选择用水量更少的制冷装置
目前,很多数据中心采用新的制冷方式,更节能而且比传统的水冷机以及冷却塔组合的用水量更少。这些制冷方式通过整合蒸发冷却技术并利用外部空气的省煤器减少了每年消耗的水资源。Uptime Institute发现全球范围内大约有1/3的新数据中心使用了其他制冷系统,没有使用传统的水冷机与冷却塔的组合。
某些数据中心直接使用风冷。只需要打开窗户,让空气流过敏感的IT设备。微软数据中心服务总经理Christian Belady证明了这种方式是可行的,风冷方式受气候限制,而且更为重要的是企业要愿意承受由于气温波动以及空中悬浮微粒污染而导致IT设备出故障的风险。使用风冷的大多数组织同时使用了其他制冷技术。
使用直接蒸发冷却,外部空气通过水饱和介质或喷雾吹入并通过蒸发冷却。鼓风机使冷空气流通以达到冷却服务器的效果。尽管该方式比直接的外部空气冷却更普遍,但由于来自森林火灾、沙尘暴、农业活动或者建筑工程等外部事件所产生的污染物,仍会给IT设备带来风险。这些污染物可以被过滤掉,但很多组织无法容忍污染物风险。
某些数据中心使用所谓的间接蒸发冷却。该过程使用两股气流:闭环的主气流用于冷却IT设备,外部气流用于冷却主气流。外部气流通过直接蒸发冷却进行制冷。被冷却的二次空气流流经热交换器,冷却主气源。被冷却的主气流通过风扇推送至服务器。
此外,有的制冷系统不需要使用水——干式冷却器使用泵送制冷剂而不是水汽蒸发冷却空气。也有不需要使用蒸发冷却塔的风冷冷冻水系统。
范例
一些使用其他冷却方式的数据中心典型案例包括:
位于Quincy、Wash的Vantage数据中心使用蒙特间接蒸发制冷系统。
Rackspace位于伦敦的数据中心,Digital Realty位于柏林的Profile Park,使用顶部安装式间接外部空气技术结合ExCool公司的蒸发冷却。
Facebook一期数据中心使用直接蒸发风冷以及加湿系统,二期数据中心使用了阻尼媒体。
雅虎位于纽约州北部的Chicken Coop数据中心在空气条件允许的情况下使用了直接外部空气制冷。
Metronode是一家位于澳大利亚的通信公司,使用了直接空气制冷(直接蒸发制冷用于备份)。
Facebook在报告中提到其Prineville制冷系统使用的水为传统冷却装置及冷却塔的10%。Excool间接蒸发制冷产品在进行营销时声称,一个1兆瓦的数据中心每年消耗的水大约为26万加仑,大约为传统数据中心的3.3%。使用泵送制冷剂系统的数据中心消耗的水就更少了。
为什么不是所有数据中心都使用上述制冷技术?
既然这些新的制冷设计能够显著减少能源及水资源消耗,那么为什么不让所有数据中心都使用上述技术呢?
和传统冷却方式相比,新制冷系统需要额外投入50%到100%的成本。为进行深入的财务分析,可以阅读Compass Datacenter有关蒸发冷却系统潜在负面投资回报率的研究。从根本上讲,我们目前处于电力及水资源较为廉价的阶段。有朝一日资源消耗价格低廉的情况将会终结,但即使出现这种情况,成本昂贵制冷系统的投资回报率也可能需要很多年才可以实现。
上述制冷系统往往占据大量空间。对很多数据中心而言,水冷设备更有意义,因为无法修改建筑外观、空间相对小的数据中心的容量是有限的。
这同样会影响打算通过Uptime Institute等级认证的数据中心所有者。达到Tier III 构造设施认证需要进行组件隔离,而且要求制冷系统的所有组件不会影响设计的日冷却温度。这意味着数据中心所有者需要能够忍受制冷单元、控制系统、循环水箱以及热交换器宕机等问题的发生。Tier IV容错要求系统容忍任何单一及随后发生的事件,而不会影响核心系统。尽管很多使用新制冷系统的数据中心已经通过了Uptime Tier认证,但这的确增加了认证过程的复杂度。
企业在作决策时还需要将温度因素考虑在内。如果还没有准备好在进风温度达到22摄氏度的情况下运行服务器的准备,那么额外的投资不会带来很多回报。而且,企业需要先从良好的数据中心空间管理开始,包括优化气流用于高效制冷,而且潜在的控制可能会增加成本。此外,某些制冷系统无法在高温潮湿气候下工作。
而且,和任何其他新技术类似,选择另一个制冷系统带来了运营挑战。企业很可能需要之前并不熟悉设备的配置、维护培训。针对首次进入核心业务数据中心空间的厂商,企业需要额外进行全面、严格的评估。
总的来说,整个数据中心行业对于节约用水漠不关心。Uptime Institute的调查数据表明只有不到1/3的数据中心运营商记录了水资源消耗情况或者使用了绿色网格组织的水资源使用效率指标。而且根据Uptime Institute 2015年数据中心行业调查,数据中心运营商在回答数据中心最重要指标这一问题时,水资源使用排名几乎位于最后。数据中心管理者表示,针对减少水资源消耗,他们唯一关心的是二氧化碳排放。
但大量的水或电力消耗使数据中心很容易成为公众指责的目标。尽管选择传统的水冷系统有很多很好的理由,尤其是针对既有建筑更是如此。对于新建的数据中心而言,业主应该根据总的业务需求(可能包括可持续性指标),对其他制冷设计进行评估。
Uptime Institute针对减少数据中心资源消耗已经做了几十年的研究。水资源话题应该采用有利于提高IT效率的更为全面的方法进行评估。使用该框架,数据中心运营商就能够学会如何更好地证明并解释业务需求的合理性,并证明他们是对环境负责的企业资源管家。
本文节选自《IT新架构》十月刊:数据中心水资源消耗引关注。