包括电力供应与散热的运营成本对企业数据中心的影响日益扩大。认为没有迁移或者重建数据中心,就不会增加附加成本的想法早已经过时。日益攀升的能源成本成为企业的巨大负担,如何有效降低能耗支出,已经成为数据中心管理者的当务之急。
大多数数据中心在建设时并没有对投入的IT设备的功耗与散热系统进行科学的评估。在追求绿色计算的时代,人们一致认为,应该尽量减少IT设备的电力消耗,而不是增加能耗。实际上,相比几年前IT系统单位计算性能的能耗与单位GB存储数据的能耗确实减少了,但是数据中心仍然需要比以前多得多的电力与散热成本,主要原因包括越来越多的计算能力被放到一个狭小的机房; 今天的机架式服务器和刀片服务器同以前传统的塔式服务器相比,每平方米的功耗大大增加; 企业对IT系统要求提高了,性能提高了等等,总电力供应与散热需求增加了。
今天的数据中心,服务器整合是必需的。数据中心因为设备的高度分布化和单一服务器运行单一应用的“竖井式”结构,造成运营费用迅速增加,并且迅速吞噬企业的利润。所以,解决的途径就是减少需要管理的计算资源的数量,从而减少昂贵的运营成本。但是,这仅仅是人们一个善良的愿望。以现在的发展速度,如果数据中心不进行系统改造,散热问题最终将会导致数据中心崩溃的灾难性后果。你可以减少需要移动设备的大小与数量,但是你不能减少需要增加的计算与存储信息设备,你需要结束的可能是在一个更小的空间里,计算与存储系统需要更多的电力消耗。
近几年,在一个相对狭小的空间里装备更多的存储与计算能力是完全可以做到的,通过减少空间的占有,增加现有设备的寿命,减少需要维护与管理的设备的数量,让IT完成更多的工作。显然,一旦在数据中心中推广这一思想,数据中心占有的空间将会更小,带来的问题是硬件变得更小,性能更高,效率更高,电力供应系统密度也更大,生产的热量更大、更集中,问题也更严重。如何散热变得越来越关键。
散热的计量
在我们思考“用户最关心的是什么”以及“为什么关注它”之前,我们先介绍一些与数据中心有关的基本知识。热量的最基本单位是英热(BTU),1英热 = 1 055.05585 焦耳。每瓦电力消耗在每小时所生产的热量大约为3.413 BTU。当电力消耗持续时,数据中心需要空调系统来驱散所产生的热量。1吨的冷却能力每小时能够驱除大约12000BTU热量。所以,从原理上看,要使数据中心的温度保持在一个恒定值,那么相应的电力消耗总额就需要相应数量的散热能力。显然,很多IT管理人员已经发现,散热是必不可少的。
今天,大多数数据中心的散热系统的部署都是在一个特定的假设前提之下,即假定数据中心负载不但是水平均匀分布的,而且更重要的是任何给定区域的负载并不比数据中心中与其共享一个空间的其他任何一部分大。另外,传统的散热系统是作为建筑物的一个基本部分设计与部署的。
按照美国采暖、制冷和空调工程师协会(ASHRAE,American Society of Heating, Refrigerating and Air-Conditioning Engineers)的统计,2006年,一个典型的数据中心,密集的服务器与存储设备在每平方英寸的设备空间里平均电力消耗达到5000W,而在2002年相同密度的数据中心的每平方英寸的设备空间的平均电力消耗仅为2000W。经过4年时间发展,数据中心热密度增加了两倍多。在1998年,设备的密度还不是那么大,每平方英寸的设备空间的平均电力消耗仅为800W。在大约8年后,每平方英寸电力消耗增加了600%,并且增速并没有减缓。
考虑到服务器与存储设备每3~5年更新一次的平均周期,在散热系统的平均生命周期(大约6年)内,数据中心的电力消耗与所生产的热量大概增加3~4倍,致使人们很难智能地计划与设计一套散热系统。健康企业的业务会保持一个合理的增长速度,也会需要更多的计算资源与存储空间。通常重新部署一个数据中心不仅困难,而且为了将宕机时间减少到最少花费也是非常巨大的。显然,继续依赖一个传统的没有能力满足企业发展需要的技术也不是一个最好的选择。
一旦数据中心设备安装完毕,几个关键因素会增加热量的产生与能源的利用率。首先,能耗的增加也会增加热量的产生,而热量的生产也会增加能耗。位于美国纽约的Lawrence Berkeley国家实验室的一项研究显示,数据中心中总能耗的49%是用在非计算领域,包括照明、电力分配、UPS、发电机、风扇与散热系统本身等。另外,更大的热量密度会增加这些影响,致使今天的数据中心规划者需要做出更明智的决策,必须设想未来的电力供应与散热情况变得更严峻。
有不少方法可以解决这些问题。例如,很多公司采取了扩大机柜空间的做法,将原来放在一个机柜中的设备,分散到更多的机柜中。这样做虽然可以降低散热的需求,但是系统密度却降低了,需要更大的物理空间,每平方英尺计算密度也会降低。
解决散热难点的方法
假设今天你对自己数据中心安装的设备有足够的散热能力,那么你可以部署计算设备。如果你不能做出这样的判断,那么最好采用科学的散热设计。
采用一个交互的热通道与冷通道层设计,可以解决目前数据中心存在的很多典型问题。原理很简单,服务器与存储设备会得到冷气流,然后排出热气流。通常这些设备的前端会吸入冷空间,而把热空气从后端排出。假如企业销售的机架设备通常也具有相同的设计思想,那么用户就可以设计热通道与冷通道层。相反,同一温度的气流在通过时必须互相面对,以便热气流不是通过冷气流的侵入而被排出机架。在冷通道里,放置机架的地板要有足够的排风口,可以给设备提供足够的冷气。
当然从原理上说,热通道和冷通道是最好的,但是有时在实际应用时却达不到目的。特别时放在机架极端的系统特别容易出现问题。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是一个问题。而且,阻止机器散出的热空气同冷空气混合更是困难重重。原因包括两个方面:首先,顶端热量增加,而比较低的机柜的温度降低,从而使大量的空调系统停止制冷,进一步加剧顶端温度的上升;第二,在被驱散气流的附近,流动的气流可能引发热空气在机架的顶端形成热气球,并反过来会进入机架内部温度比较低的服务器和存储设备附近。在一些情况下,它还会引起机架过热,造成系统宕机,或者通过关闭系统来进行维护。
解决这一问题有速度控制和区域打包两种方式。前一种方式,传统的风扇被安装在数据中心的特殊部位,直接控制热气流和冷气流流向正确的地方。在大多数情况下,空气在穿过和排风孔的速度,还不能到达机架顶部,并形成足够的冷却能力,特别是地板上的通风孔的通风能力超过风扇吹动空气的能力时,情况更严重。简单的增加通风孔,而没有理解你可以将多少空气吹向地板,结果会造成系统的制冷能力大幅下降。
区域打包方式是在一个相对隔离的更广的范围内,完成热与冷通道的交互。采用这种方法,在机架顶端到房子的天花板之间设置一个完全隔离的有物理墙壁的管道。在数据中心,会形成很多这种隔离的小空间,就像数据中心的管理员才有权使用的机架上有一个或者两个可以打开的小门的房间。虽然这种设计有点激进,但是在一个小的数据中心,它可以限制热气流和冷气流的混合,并是具有成本效益的一种途径。唯一值得担心的是建造这些小空间时,可能对机架以及其上的IT设备所造成的影响,包括物理的碎片等。在大多数情况下,简单的采用热通道与冷通道设计,甚至是激进的区域打包方式等,相比下一代的计算与存储设备对能耗和散热的需求而言,都是权宜之计。
到处都存在的水冷
水是另一个可以采用的方案。水可以带走的热量是同样空气散热效果的3500倍。冷冻的水可以消除数据中心对通过地板完成散热的系统的需要。水冷并不是新事物,像汽车以及大型机使用水冷系统都已经好多年了。现在水冷正在逐渐应用到一些新的环境中,如建筑大楼里的空气调节装置。
从数据中心的散热系统看,采用冷冻的水作为一个通用的冷却系统以前时有发生,水冷也被视为散热的一种重要手段。水冷就是用许多小管道循环散热,这些管道中充满了具有散热功能的蒸馏水和非离子水。Cry、IBM等很早就采用水冷技术为大型机散热。不过,在数据中心,用户认为很难发现环绕在数据中心内的水管出现的裂纹。显然,一旦水冷成为大型数据中心最基本的冷却方法,那么就必须证明水冷对数据中心是可靠和安全的。
对于传统的单片机或者单个集成电路部件,非常容易使用水冷系统,因为这些大型的机器预留了足够的空间,可以部署水冷系统的循环管道。而对于超高密度的计算系统,则可能无法部署这些水冷系统的循环管道,所以采用水冷的另一种方式则是必然的。
在机架中采用水冷正变成一种通用的方法,机架内部可能复杂多变,部署的水冷系统也可能复杂多样,可能有不同的层次。在大多数情况下,可以在机柜中安装热交换机(heat exchangers),水可以在机柜内一个封闭的系统内循环流动,水被传统的机房空调系统(computer room air conditioning ,CRAC)冷却。 另一种方式则正好相反,热交换机安装在机柜外边,水继续在一个封闭的系统里流转,而水也被传统的CRAC冷却。这两种方式都是水冷与空气冷却两种方式的混合体,但是提供的制冷效果却超过了单纯使用空冷或者水冷的方式。另外它在没有对已有系统架构进行重大改变的前提下,可以采用各种各样的方式在数据中心部署。
水冷系统的最新进展是利用一个完整的外部制冷系统,通过一个封闭的独立供应水与接受流回水的已冷却的水流系统,降低机架内电子设备的温度。通常水冷系统一般经过了数据中心机房的地板。冷却设备与热交换机通常安装在数据中心外部,一般使用蒸馏水或者冷却水方法。在下一代数据中心中,这可能是惟一一个能够满足明天的数据中心设备正常运行的散热系统。
水冷推广的第一道防线则是人们的意识。数据中心规划者、设备工程师与服务器、存储、通信系统的工程师必须协同一致,能够预测数据中心将要部署设备的数量。来自独立的第三方的评估分析也可以帮助用户了解怎样减少今天数据中心冷却系统的负担,并为明天做好充分的准备。在数据中心,电源供应与散热将成为重点考虑的一个方面。今天为明天做好准备是必须的。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
看IBM数据科学团队如何助力企业用户AI项目
在下面的Q&A中,IBM公司的Seth Dobrin探讨了如何提高企业用户对机器学习和AI项目的兴趣, […]
-
DR基础知识:灾难恢复计划和灾难恢复策略
IT灾难恢复(DR)计划的主要目标是制定详细的恢复计划,以在意外中断时执行。 这种计划应该列明详细步骤,说明在 […]
-
为超融合架构选择合适的数据中心冷却系统
超融合基础架构会给新的数据中心冷却方面带来一些新的挑战,在选择和实施之前,我们来看看哪些温度和冷却单元的效率是最好的……
-
IDC Directions 2017:值得期待的智能数据中心技术
智能技术能够让数据中心变得更为自动化、简单,不过企业需要为其实施做好准备,了解如何从旧的设备平稳过渡至智能的数据中心。