随着企业数据中心建设的深化进行,企业业务数据集中密度越来越高,服务器存储数量不断增长,网络架构不断扩展,空间布局、系统布线、电力能耗压力不断增加。作为数据中心业务承载的大动脉,基础网络架构层面直接面临着持续的严格挑战。
数据中心趋向高密度
目前1Gbps~8Gbps级别的服务器、存储系统网络接口已经是主流,从而使得基础网络系统的千兆接入、万兆互联成为数据中心建设的基本标准。下一代计算设备已经开始提供万兆接口,目前多核服务器已经具备万兆吞吐能力,多万兆网络接口的服务器、存储系统已经开始在企业数据中心进行部署,计算能力迅速提升的同时也使得面向网络的接入带宽需求过渡到万兆环境。
此外,计算虚拟化的技术革新,使得单一高计算能力物理服务器虚拟化成多个逻辑计算单元,极大提高了系统的计算效能以及对存储访问的高速吞吐。同时,因等同于将此前的多个服务器应用系统叠加在一个网络接口下,网络流量急速提升,对数据中心基础网络提出了相当于传统环境下数倍乃至数十倍的性能要求。
因此,在数据中心发展建设过程中,出于不同的应用连接要求,逐步出现了以太网交换网络、服务器高速互联网络和存储访问网络等多个独立的网络系统。随着数据中心规模的不断增大,庞大的异构网络也成为影响数据中心TCO的一个重要环节。
同时,在高密应用环境下的数据中心网络中,特别是万兆互联环境下,业务流量突发异常显著,而这样的突发数据流需要网络交换系统进行缓存和排队调度。如果出现多个万兆端口向较少万兆端口突发数据,则存在严重的突发拥塞瓶颈。
100G时代来临
以太网技术发展是以10倍速方式跃阶的,当前的千兆接入、万兆骨干已经是普遍构建的网络架构。随着成本的持续下降,万兆技术也开始从网络的核心,推进到网络边缘、服务器,乃至存储设备上。与此同时,研究下一代以太网标准的HSSG技术工作组已经结束争论,将在2010年确定一个包含40Gbps和100Gbps速度的单一标准IEEE802.3ba。40Gbps主要面向服务器,而100Gbps则面向网络汇聚和骨干。其中,100Gbps将有10米铜缆链路、100米多模光纤链路和10千米、40公里单模光纤链路标准。
除了传输速率之外,为解决数据中心高密应用的调度、流量的浪涌式突发缓冲等关键的性能问题,必然在进行交换平台的基础架构设计上进行技术革新。首先是在交换平台上提供硬件化的流量管理能力,通过大容量的缓存匹配密集的硬件调度队列。另一个技术变革是改变传统交换系统的出端口缓存方式,而采用由流量管理器在硬件层面协调的分布式缓存架构,使得每个相应端口的缓存大小均在万兆全线速条件下达到200毫秒的突发流量缓存能力。此外,毫秒级恢复能力也成为数据中心的故障恢复指标。
融合的统一交换
随着以太网技术的进一步发展,新的技术标准不断推动基础平台架构的变化与融合。而当前数据中心系统架构的不断发展和密集的业务需求,也进一步要求数据中心交换网络成为高性能、融合业务统一交换的基础平台,满足数据中心规模的不断发展。
实际上,万兆交换系统的时延已经降低到微妙级别,而当前已经有技术使得以太网芯片在cut-through方式下能够达到200纳秒~300纳秒级别,已经逼近Infiniband的低时延水平。而对于计算型应用而言,采用以太网互联的微妙级时延已经能够满足大量的计算需求,近几年高性能计算TOP500排名中基本上超过50%的计算网络互联是采用了千兆以太网,随着万兆、40G/100G技术的深入发展和终端万兆接口技术成熟,以太网将成为服务器互联计算承载的主流平台。
同时,无丢包以太网技术标准族(802.3Qau、802.1Qbb、802.1Qaz、Data CenterBridgingExchangeProtocol)和相关技术也即将发布,并在此基础上进一步支持FCoE,这些都使得以太交换网络能够承载FC存储数据流。
数据中心网络发展趋势是融合的统一交换架构,在一个交换平台上有效支撑业务的前端访问、服务器高速互联、存储访问。而基于IP-SAN的万兆成熟解决方案广泛应用,更使得数据中心统一交换架构早于FCoE实现存储的融合。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国