用户业务需求不断地增长对IT基础架构自然提出了更高的要求,随着多核CPU的普及刀片服务器的大量使用和高密度核心交换机、以太网供电技术的不断发展,新一代数据中心基础设施的建设越来越重视关键设备产品和新技术应用,数据中心如何有效地解决设备散热问题以保障设备运行的可靠性,这已成为近年来行业普遍关注的焦点问题。
散热管理Thermal Management
新一代机柜所具有的线缆管理系统、插入式模块结构、两侧一定比例的空间预留和经过反复试验的含科学比例孔距(前、后门密集通风网孔的通风面积均大于柜门面积的63%)的前后门设计皆在充分保证机柜的散热功能,它可以保持机柜前后冷热气流的畅通,从而达到提高设备的运行性能和保证运行的稳定性。
侧出风散热设计
由于高密度核心交换机散热的特殊性,要求交换机的一侧距离机柜边缘有6英寸宽的空间,才能有效保证其良好的气流环境。目前数据中心每个机柜的平均功耗在4kW以下,而单台CISCO6509就可以产生近4KW的功耗,6513则可以产生6KW的功耗。机柜侧出风导流装置,就是专为Catalyst6509系列和MDS9513系列等核心交换机设计的,它可以有效地保证将其侧出热气流的散出,并导向机柜后部,避免热气流散向机柜内其它方向,这种结构能够使整个机柜甚至整排机柜和整个机房内形成一个合理的冷热气流的循环。在机房内部形成合理有效的冷热通道,并使冷热气流按一定速率对流,这点对于现代化机房解决散热难题并做到节能降耗显得非常重要。有数据表明,通过对机房气流组织以及空调系统的优化设计,可以使机房PUE(Power Usage Effectiveness)值从2.5降低到2.0左右,其效果可见一斑。
水冷门系统设计
为高散热服务器机群配置了水冷门系统。水冷门系统是为数据中心更有效地节省能源,提高能耗比而推出又一款革新产品,至少能够为每个机柜降低20KW的热量。传统高架地板结构式的数据中心散热方式已无法承受每个机柜15KW以上的功率消耗,所以我们常常在数据中心看到很多机柜只安装了不到20U的服务器。采用水冷系统可以轻松地将单个服务器机柜所能承载的功率从现在的平均4KW提高到24KW,它为局部高密度的服务器散热问题提供了一个非常有效地解决方案。
值得一提的是,目前机房设备的降温决大多数都是采用空调系统弥漫推送冷气的方式,为了使局部高热区域降温,整个空调系统的温度往往需要调得很低。目前我国数据中心的平均PUE(Power Usage Effectiveness)水平已经在2.5以上,而国外先进数据中心的PUE可以达到1.7,也就是说一个数据中心环境设施的能源消耗已经大大超过IT设备的能耗,随着世界气候不断变暖和IT设备密度的不断提高,这种趋势越来越显著。有实验数据表明,通过使用冷水(ChillWater)循环冷却系统,至少可以提高20%的能源使用效率。国外很多技术中心都是采用这种冷却系统。
水冷系统采用单独的循环系统,采由冷水(ChillWater)作为制冷剂,一台分布式压缩主机CDU(Cooling Distribution Unit)一般能够提供120KW到150KW的制冷量(个别产品最大能够提供300KW),即一台CDU能够控制最多六个水冷门机柜,CDU和每台机柜之间各有两根水管连接,一个为进水管,一个为出水管,通常安装在地板下方,CDU可以安装在机房内,其大小如同普通机柜般大小,可采用机房内局部施工铺设水管,施工并不复杂,只是要注意在弯曲处安装防漏装置,要求与强电电源线保持一定距离。
线缆管理Cable Management
出色的线缆管理系统不仅使数据中心美观整齐,更重要的是可以有效地避免线缆和电源线的拥挤,将接插区域和配电基础设施设计为交互式,保证机柜内部有足够的气流空间,以使气流最大化。
机柜底部可以提供最多达65%面积区域用于地板下方线缆的走线,我们建议封闭线缆以外的区域,加盖盲板,防止冷气由底部进入机柜,以保证冷热气流沿着方向正确流动,这样可大大提高制冷效率。机柜顶部装有13块大小不等的挡板可以方便拆卸,可以提供40%的区域面积供上走线系统进线,与上走线系统配合相得益彰,完美表现。
机柜还可以灵活地配置垂直配线系统,充分利用机柜空间,在机柜侧面可以安装4个1RU铜缆或者光缆配线架,它的好处是可以节省机柜空间,减少跳线的弯曲和更方便地插拔跳线,如图5所示。
很多机柜没有足够的空间来容纳竖直线缆管理器。机柜垂直理线系统和水平理线系统共可容纳多达400多根加强型六类跳线(Cat6A),每个机柜单元(1RU)可以安装容纳48根六类条线和六类模块。
机柜垂直理线系统和水平理线系统中包含独特的棘爪设计,能够充分保护和控制线缆的弯曲半径,可选配的绕线轴能够有效地管理跳线的余量部分,整个理线系统能够轻松地将密密麻麻的线缆整理得分门别类,井井有条,使整个机房显得极为美观,让投资者感到物有所值。
机柜两侧各留有6.3英寸的空间,可以充分满足用户高密度线缆管理的需求,其容纳的线缆根数如表1所示。
集成的接地系统Integrated Grounding Management
雷击闪电、开关电流或静电等原因引起的过电压或过电流,会对数据电缆产生电子干扰。这会造成错误的数据信号以及丢包现象,因而降低网络的吞吐量和总效率,甚至造成设备损坏。机柜安装有完整的接地系统,可以避免或降低这种事件发生的几率,可以有效地保护设备、保护人员安全和保证设备的高性能运行。一体化的机柜接地系统除包括安装有特殊专用接地导电轨、导电式的铰链和全焊接结构外,还有设备到机柜的连接套件,机柜与地网的连接套件,机房接地母排和各种接地紧固套件等,这些部件可以确保整个机柜及其所有安装的设备可靠地与MCBN(Mesh Common Bonding Network)地网系统有效连接。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
“拒燃”?小心数据中心热点
冷却故障和服务器温度过高造成的结果往往比绝大多数关键任务数据中心断电还糟糕。那么,热点是如何发生的呢?又如何预防其发生呢?
-
未来数据中心将看重能源测量和冷却效率
我们已经习惯于以性能和效率的指标来评价数据中心。但是对于未来的数据中心,关注点会逐渐转移到能源和冷却方面。
-
边缘计算面临冷却挑战
边缘计算的时代已经来临。超越数据中心的分散处理和存储正在成为新的规范但迎风踏浪之前需要认清其面临的障碍,比如冷却挑战。
-
从三方面设计高效的数据中心冷却系统
IT经理应该对数据中心的运作进行重新评估。降低能耗并不等于就需要牺牲硬件设施的可靠性和性能。