Google以身作则 引领数据中心能效治理

日期: 2011-06-01 作者:Alex Barrett翻译:陈德文 来源:TechTarget中国 英文

本文是SearchDataCenter.com关于Uptime Instutute研讨会相关文章的一篇。更多内容请查阅:Uptime Institute Symposium 2011 coverage

  Google宣称他们位于加州的数据中心在能源利用效率(PUE)上再创新高。若遵循以下指导方针,你同样可以实现更高效的能源利用,一名Google官员这样说道。

  Chris Malone是Google的热能技术建筑师,他详细阐述了这个互联网搜索巨人是如何在它的10座数据中心里达到1.16的PUE值。

  PUE指标由Green Grid(绿色网格)设计,其计算方式为:PUE = 数据中心总设备能耗/IT设备能耗。

  PUE的目标是让计算结果尽可能的接近1.0。根据Uptime Institute最近的一份调查,数据中心维护人员与所有者反馈的平均数值为1.8,意味着IT设备每消耗1瓦特能源,将额外花费0.8瓦特用于能源转换、制冷与其他开销。

  通常能耗问题源

  降低数据中心PUE数值最简单的方法就是关注冷却,Malone说。

  “优先考虑冷却问题。”Malone说,“因为这方面通常都有极大的改善余地。”在一个典型的PUE值为2.0的数据中心内,IT设备消耗50%的能源,而冷却设备消耗大约35%左右负载。与之相比,Google PUE值为1.16的数据中心内,设备消耗86%的能源,而冷却仅为9%。

  数据中心专家可以通过调整空气流(将冷热气流分离),提高数据中心运行环境温度,使用省煤器与外部空气优化冷却效率,Malone说。

  智能电源与备份策略同样可以提高能源利用率。在电源前端,Malone主张尽量减少转换次数。

  “理想情况下最好只进行一次转换,”他说。数据中心应该使用最一流的UPS产品。“若选择最先进的商业产品并遵照其最佳实践,将可以减少约0.24的PUE开销。”

  即使是微小的变更也能对PUE产生很大影响,Malone说。Google在一个250,000kW的网络设备机房上投资了约20,000美元,该机房之前的PUE为2.2至2.5,现在已经降为1.6。他们采用的技术包括了改善穿孔瓷砖布局,关闭过度冷却至80.6°F(26.9℃),提升相对湿度并减少冷热通道混合。Google不到一年就赚回了相关成本,既没有影响冷通道抑制,也没影响免费冷却,甚至不会对冗余与正常运行时间造成影响。

  改善数据中心能耗可行的举措

  出席展会的数据中心运维人员也表示Google提供了可靠的建议。

  “很显然,我们可以完成此类的变更,”Juan Murguia说,他是墨西哥CEMEX的数据中心经理。诸如存储热空气,并在机房空调设备(CRAC)上增加烟囱这样的简单解决方案“确实有效”,而且“进行这些改进并不会产生多少费用”。

  Steve Press是Kaiser Permanente某数据中心设施服务的执行董事,亦对此表示赞同。在大型数据中心中调节冷却效率可以帮助将PUE从1.67降低至1.45,要感谢像Google这样的公司,因为他们,降低PUE变得更容易了。“像Google这样的企业已经给我们做了榜样,可以放心尝试与购买相关的冷却技术了。”他说。

  可是数据中心运维人员依旧需要进行大量的工作,才可逐渐达到理想的PUE。根据报告,数据中心的PUE平均值为1.8,只有大约18%的受访者表示达到了Google“轻松目标”的PUE值1.6,而且有21%的受访者表示当前PUE值在2.0,甚至更高。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者

Alex Barrett
Alex Barrett

TechTarget特约作者

翻译

陈德文
陈德文

TechTarget中国特约编辑

相关推荐