数据中心布线系统的绿色需求

日期: 2010-04-06 来源:TechTarget中国 英文

  对于数据中心用户,选择绿色布线系统的最终目的是为了提升系统的性能,同时更好地保护投资。这要求布线厂商首先吃透用户的布线需求。

  首先,用户的需求在于提高散热效率。目前数据中心机柜或机架的布置基本都是采用一个交互的热通道与冷通道层的设计,其原理是服务器与存储设备从冷通道得到冷气流,然后从热通道排出热气流。如果机柜或者机架上的走线过于凌乱,就会遮挡散热气流的通路,冷热气流的交换过程就不能顺利进行,用户就需要用更多的散热设备(如机柜风扇等)协助气流交换,而风扇自身会产生些许热量……这样一来,数据中心散热系统的整体性能将会大打折扣。

  此外,理线的方便、整齐也是需要关注的问题。随着布线水平的提高,布线系统的工程商已经通过遵循施工工艺及层层把关,达到每根线都能够通过性能测试。这时,线缆整理充分利用机柜空间,使得线缆整齐、紧密地在服务器或网络设备前后及两侧排列,不遮蔽服务器或网络设备之间的气流交换通道,同时减少空间占用则是用户需要考虑周全的。

  因此,布线厂商对数据中心布线系统无论是机柜机架、配线架,还是理线架、走线槽及附件的设计,都要符合上述数据中心冷热通道的散热规则,并且符合用户的理线习惯,简化用户的理线过程。设计数据中心综合布线时,应重点在项目的功能需求、网络与布线系统的构成、产品的选择档次、配置数量的确定、施工的方式等方面加以综合考虑,建议严格参照GB50174-2008《电子信息系统机房设计规范》中的设计标准进行规划设计。

  根据以往的经验,数据中心一旦运行,主要能耗问题来自通风散热、数据传输性能及稳定性。在散热方面,若服务器长期处于高温状态,会缩短硬件的寿命,例如服务器CPU的过热保护宕机,服务器主板过热导致的线路板烧毁……交换机等网络设备也存在类似问题。一旦问题发生,企业的经营业务都会因设备瘫痪或毁损而直接受影响。所以,机房的温度7天24小时处于正常范围内非常重要。

  在数据传输方面,选择性能超前的6A类/EA级铜缆及OM3系列万兆光缆,对将来适应新网络设备更高速的数据传输有利,可以省去很多电缆更换的重复投资。所以在前期数据中心综合布线的建设当中,选择适应需求的高质量机柜机架,解决好散热问题,将大大减少数据中心运营过程中的散热费用开支;选择性能相对超前,余量充足的线缆及配线设备接插件等,可避免今后网络设备更新带来的线缆传输性能瓶颈问题。

  在实施布线方案的时候,有一些经过实际检验的经验是值得用户注意的:在产品选择方面,尽可能选择模块式配线架(即安装版和插座模块数量自由组合),可灵活配置端接数量,既减少端口浪费,又便于日后的维护变更;若使用角型配线架,则无需考虑理线器空间,可以提高单位空间内的端口密度。

  在光缆的配线安装方面,建议使用预备端接产品,可免除施工现场诸如剥除光缆外护套、光缆分支、连接器安装和硬件组装等光缆端接的施工工序,即插即用;能够节省光纤系统安装时间,缩短故障宕机时间;由于产品出厂经过严格测试,可节省测试时间,加快数据中心的建设进度。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐

  • 数据中心散热难点的解决方案探讨

    空调系统制冷量或送风量设计过小、机房大环境气流组织不合理、机柜内部小环境气流组织不合理、机柜发热量过大、机柜排列过于密集等问题是导致局部过热的主因……

  • 数据中心6类布线系统是否过时?

    在10G甚至万兆铜缆成为热点之时,再来谈6类是不是有点过时了,也许有人会这样问。但目前最大多数项目正在采用6类系统却是事实,在此提醒用户的是……

  • 探究数据中心布线混乱的根本原因

    从数据中心网络基础设施建设的总体规模来看,布线系统的费用比重并不高,但作为数据中心的生命线和主动脉网络,布线系统有着与其投入成反比的重要性和维护量。

  • 如何对综合布线系统进行日常维护与管理?

    再好的系统都有出现故障的可能性,在机房运行之初就有必要制定周全的故障排除预案,当然在机房运行的任何时候制定故障排除预案也都是有价值的。