避免关键数据中心出现故障始终是头等重要的任务,如果短时间的停机可能会对业务的市场价值产生负面影响。那么,支持这个网络环境的物理基础设施就一定要可靠。物理基础设施包括建筑装修、供配电、制冷、集中监控、消防、布线等系统。
旧物理基础设施无法满足IT系统新需求
数据中心的根源来自早期计算机领域巨大的计算机房。早期计算机系统体积非常大,本身就需要占用很大的空间,同时运行和维护也都很复杂,需要在一个特殊的环境中运行,因此需要许多电缆连接所有的组件,如标准机架安装设备,高架地板和电缆盘(或安装在屋顶或架空在地板下)。此外,过去的计算机也需要大量的电力,会产生大量的热量,通过专用的计算机房和冷却系统可以对散热效果进行较好的控制。安全也很重要——那时计算机是很贵的,主要用于军事目的或重要的经济科研领域,因此对计算机的访问受到了严格的控制,比如在我国石油勘探行业就流传着“玻璃房子”的故事,美国为防止早期从美国进口的计算机被用于军事用途,往往派美国人来管控计算机房,中国人上机还需要得到批准才行。因此,专用的计算机房是必须的,这就是数据中心早期机房的雏形。
到了上世纪90年代,大量计算机仍然被部署在办公楼内,却很少有人关心过对这些计算机的运维要求。然而,随着IT运维变得越来越复杂,数据丢失现象越来越普遍,所有公司开始意识到需要控制IT资源。特别是随着客户端/服务器计算模式的普及,微机(现在叫做“服务器”)开始在过去的机房中寻找它们的位置,使用廉价的网络设备,加上标准的网络布线,人们开始采用分层设计,将服务器单独放在公司的一间特殊的房间中,于是就使用“数据中心”一词表示特殊设计过的机房,这种数据中心规模一般在200-300平米。随着IT设备越来越多,对业务连续性与安全的要求越来越高,这样的机房已无法作为一个标准的数据中心来使用。
中国石油集团东方物探研究院的数据中心有过一段波折,这是一个基础设施影响IT系统的典型案例。在2002年,因为业务发展的需要,东方物探研究院的数据中心被迁至城里相对比较繁华的地方重建,2003年数据中心搬迁完成之后,不到一年的时间就出现了四大问题,以下是其计算机服务中心副主任兼信息办主任易良坤的总结:
“第一,配电。当初设计时认为用电量不是很大,所以我们搬进去时,就只有一台1000千伏安变压器和一台800千伏安的变压器,想就能把整个楼给带起来了。发展到今天,我们经过两期的整容改造,现在整个楼的供电变压器容量已经达到了7800千伏安。
第二,空调制冷。有两个事情,一是,我们把空调放到相邻楼的楼顶。而那个楼建时并没有考虑到楼顶会放一些震动物体,结果放上去后,那个楼就经常漏水,长期得不到解决。二是,随着我们单位计算机的发展,精密空调室外机数量的问题。现在的空调室外机已达到30多个,摆放起来有很大的问题。为此我们在楼的东侧设置了一个空调室外机架,把室外机的安置问题解决了。但是另外一个问题又凸显出来了,因为机房楼旁边就是家属区,噪音扰民问题非常严重,到现在也没有更好的办法解决。
第三,谐波。2003年我们搬到新机房楼,就出现了几个问题。一是,电脑发热比较快。二是,变压器噪音特别大。三是,电容的补偿装置投不上去,还有电子器件烧毁。我们一查电源谐波很厉害,特别是UPS的谐波是一个很大的谐波源。当然现在用的很多设备,包括节能灯、变频空调都是谐波源。在这种情况下,我们花了将近两年的时间进行治理和诊断,最后采用了有源滤波的方法解决,因为这时要上电容电抗器不太现实。
第四,承重。2003年我们机房搬迁之后,设计的负荷是650公斤,但按后来的发展到了高密度。现在我们一个800平米的机房,已经放了130多个机柜,导致局部负载过重,一些浇铸层都出现了裂纹,所以后来对承重又做了调整。”
以上还只是数据中心基础设施限制了IT系统,更严重的情况还在于基础设施的问题伤害到了IT系统,从而给业务带来不可估量的损失。一个例子是北京地税,它和北京国税在一个楼里,国税的地下水管道爆裂,地税中心的UPS就跳闸了。另一个例子是银华基金有一次数据中心制冷系统出现漏水,刚好把一台IBMP560Q给烧了,后来经过多方辛苦的努力,才将业务恢复过来。要知道基金公司的业务是不能够出现中断的,如果出现中断那将给公司、客户带来巨大的损失,基金公司也承受不了这种中断。
工业基础设施滞后与IT发展过快的矛盾
老机房这个旧瓶装不了IT设备的新酒,最大的原因在于IT发展过快,而与之配套的又严重滞后。
数据量的爆炸式增长以及信息化应用的不断深入,正在促使IT与业务的不断融合,同时也在促使传统的数据中心不断进行升级、改造。几年前,企业的数据量也就在几TB,但是随着信息化应用的不断深入以及数据、应用系统的逐步大集中,几百TB、PB级数据量的企业正在逐步增多。而且,由于很多法规都要求业务数据保存周期要长达数年,甚至有些行业企业的业务数据需要保存几十年,庞大的数据量和未来增长需求使传统数据中心场地、设备面临非常大的压力。很多企业的数据中心场地中已经塞满服务器,但远远不能满足未来需求,同时却令数据中心基础设施不堪重负。
比如刀片服务器的大量使用,在局部形成高密度数据中心,对承重和散热的要求飙升。高密度数据中心承重负荷一般在每平米850—1000公斤,而普通数据中心的负荷一般为600—800公斤。结果,本来是可以节省空间的刀片服务器却因为承重的问题又不得不分散开来。
目前的许多数据中心设计的功率密度为每个机柜3kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。
数据中心自身也在朝着整合的大趋势发展。现在的数据中心基本都会在500平米以上,超过一万平米以上的数据中心也不鲜见,像农行的大型数据中心都是两万、三万平米。因为超级数据中心的出现,可能支持的范围都已经不再是某一个小的区域,而是一个国家,整个亚太区。因此,企业往往开始新的选址,把一整栋楼都用来建立新的数据中心。
但是,有关数据中心的机房标准,1993年的《电子计算机机房设计规范》(GB50174-93)一直沿用到2009年6月1日,取而代之的是《电子信息系统机房设计规范》(GB50174-2008)。在这16年里,由于受到1993年规范“机器会越来越小、性能会越来越高、用电越来越少”这种认识的影响,大多机房的设计面积偏小、承重不够、供电也不足。
而要把一整栋楼都建成数据中心,面临着没有专业支持的困难。目前国内传统的建筑设计院都很少参与数据中心的建设,面临数据中心大楼设计的时候没有太多的经验。黑龙江国税的数据中心大楼就是一个典型案例,其背景是“金税”工程三期,批准全国三家能够重新盖大楼,而不是改造。当时黑龙江国税请了当地的甲级建筑设计单位,但是他们对于数据中心的建设的经验是空白,不得不专门设立咨询项目,请专业的数据中心专家做咨询,指导设计院做设计工作。
最后行业内缺乏专业的工程监理。原来盖数据中心基本都是请CIO签字,后来发现这是不对的,这个流程不是很合法,应该由专业的监理来做,但是市场上没有专门的针对数据中心的监理,往往从土木行业请监理,但是他们又不懂数据中心的建设,这是很大的矛盾。
亟需工业与IT的融合
经过数十年的发展,今天,无论是互联网数据中心,还是企业私有的数据中心,抑或是超级计算中心,都已经日臻成熟,数据中心的设计与构建也日渐规范。不过,数据中心也同样许多前所未有的挑战,比如大量IT资源的高效率管理问题,机房的动态扩展问题,由于电费和环保带来的绿色节能问题,云计算和虚拟化等技术发展带来的全新一代数据中心构想,以及动态IT架构的问题等等,这都是新一代数据中心的核心问题。不过,我们相信,未来的数据中心一定会变得越来越智能化,也会越来越环保。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
大数据时代来临 企业IT需转变
数据正在迅速膨胀并变大,它决定着企业的未来发展,虽然现在企业可能并没有意识到数据爆炸性增长带来问题的隐患。
-
如何应对数据中心海量的数据增长?
对于大多数企业来说,他们的数据正在以每年30%至60%的速度增长。这一增长效应将为企业的数据中心运营成本带来巨大的压力。