迈入节能 PUE值小于1.10的数据中心盘点

日期: 2011-05-22 作者:Lily 来源:TechTarget中国 英文

  IBM大中华区系统与科技事业部新成长事业部总监陈伸一曾经介绍过这样一个案例:某个用户的数据中心已经经营不下去了,不是没有钱买新的设备,而是没有钱付电费。因为那个机器所耗的电量要经营这个数据中心所需要的电费已经远超于要购买机器的成本,所以这种情况下,在五年里,数据中心的能耗翻了一倍,互联网设备每年也在增加。

  为了能够给服务器、数据中心降低能耗,近年来众多IT企业也在不断深挖探索之中。各种各样的新技术不断涌现。

  首先,服务器电源效能已经从原来的70%多上升至95%,这样一来即可为服务器降低可观的能源消耗,同时还降低了发热量;然后,低功耗的处理器和内存大量应用,多核心处理器能够有效控制TDP,但在性能方面却能够得到成倍提升,因此目前主流服务器均已配备了多核心平台,计算密度大大增加;此外,在固态硬盘的应用已经机房制冷等方面也得到了突破,这些都促使数据中心走向了节能。

  从去年开始,有一些奇特的数据中心先后亮相,那就是完全采用空气冷却的数据中心。这些数据中心一般都会部署在相对较高的纬度上,有较大规模的散热设施,通过外界冷空气即可实现冷却,因此能够将PUE值控制在惊人的1.10以内。

  它们的出现将数据中心散热带入了一个全新的时代,虽然对部署的地理位置以及设施要求较苛刻,但此类数据中心依然受到了业界所关注。下面就让我们来盘点一下超低PUE值得数据中心吧!

  雅虎PUE值1.08的数据中心

  近日,雅虎在纽约洛克港(Lockport)的数据中心正式投入运营。它使用了最新的YCC(Yahoo Computing Coop)技术使耗电量大大减少。

  除了最新的YCC设计之外,该数据中心还提供了一套额外的气流驱动监控管理控制器,在散热效率方面有了很大提高。

  数据中心的侧面建筑拥有60和120英尺高的模块化百叶窗,能够让新鲜空气进入数据中心。在设备区域,新鲜空气进入前面的服务器,散热后进入到一个热走廊,再由一个烟囱式的通道从上方排出。然后监控系统根据实际情况来决定热空气是进行循环操作还是直接排出。

  这个建筑物本身就可以看作是一个空气处理设备,它的工作原理很像“呼吸”,有一个很大的天窗和阻尼器来控制气流的大小。

  这座Lockport数据中心并没有提供水冷系统以及冷藏机组,但它也是密度非常高的数据中心,一切散热都是通过空气来完成。

  据雅虎方面透露,这个新数据中心电力使用效能(PUE)为1.08,在行业中属于节能化程度最高水平了。

  Facebook PUE值1.07的太阳能数据中心

  近日,Facebook在俄勒冈州建成了一个大型数据中心,其部分的供电将由太阳能电池板阵列来供应。

  在目前全球的数据中心里,只有极少数几个采用太阳能供电,而Facebook俄勒冈州的这个数据中心就是其中之一。该数据中心可以看作是对清洁可再生能源的一个“试金石”。

  据了解,Facebook俄勒冈州数据中心的太阳能电池阵列可以提供100千瓦的电力供应。相对于数据中心来说,100千瓦显然满足不了需求,整个数据中心可能需要几十兆瓦的电力需求。但太阳能供电的劣势恰恰在于此,据资料显示,7亩面积的太阳能电池板阵列才能够提供1兆瓦的电力供应。

  Facebook俄勒冈州数据中心的太阳能电池阵列所提供的电力主要应用中辅助设施方面,例如低功耗的机械室和办公区域。新的数据中心的PUE值为1.07,是目前业界最高效率的设施。

  PUE值1.08的英国梅林模块化数据中心

  最近,在英国建立了一座全新设计的梅林数据中心。与传统数据中心不同,该建筑采用了轻量化材料组建而成,而内部的设备则基于模块化设计。

  据相关资料显示,通过将集装箱数据中心整合,组成了一个大的服务器集群。每个集装箱数据中心都由4个部分组成,在施工的现场可以迅速部署。通过这个方法,“Merlin”大大缩短了它的施工工期。

  节能方面,梅林数据中心通过模块化设计,将集装箱高密度与灵活部署的特点发挥至极。官方称这套数据中心为“世界上最具可持续发展”的数据中心。其PUE值仅为1.08,远远低于平均2.5的行业水平。

  除此之外,梅林数据中心模块80%的材料是可以回收的,大大降低了污染,从而实现低碳化。

  谷歌新建数据中心PUE值可达1.09

  近日,谷歌公布了其数据中心能耗发展的图表,在图表中显示近年来谷歌的数据中心在能耗控制方面有了明显的进步。

  在2010年第一季度,谷歌新建的数据中心综合电力使用效率为1.16(PUE),其中一个数据中心的PUE值达到了1.09。目前,谷歌正在跟踪它的数据中心的PUE值,同时度量比较每个设施在数据中心里的功率表现及使用状况。

  以目前谷歌的技术,建造PUE值1.6以内的数据中心没有任何难度,未来的目标会让PUE更低。

  然而一些特殊制冷设计的数据中心也逐渐多了起来,其中就包括谷歌、Facebook、雅虎和微软等。这些高度定制化的空气冷却数据中心,PUE值可以控制在1.1以内,但应用规模并不是很大。

  降低数据中心PUE值需要多方面设计,其中包括服务器设备、气流分析、电源转换效率等等。目前谷歌数据中心正在努力寻找和部署高转换效率的UPS电源单元。一些UPS系统已经达到了95%以上的转换效率。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者

Lily
Lily

相关推荐