服务器说:高密度数据中心我们来做主

日期: 2015-02-03 来源:TechTarget中国

密集计算的流行正给现代数据中心带来深刻影响。硬件、系统、虚拟化、网络等支撑技术不断发展进化,在同样的物理空间架构内实现更高的计算性能。同时,密度的提升可以减少采购成本并降低能耗。当然,对于企业管理者来说,管理的压力也与日俱增,更加依赖硬件。

现在看来,下一代数据中心的规模会缩小,那么IT管理者必须在享受更高计算密度的同时,拿出一些措施降低相关风险。 硬件越来越给力 没有什么比高密度对计算硬件,如服务器、网络与存储设备部署的影响更加明显。单核、双核以及四核处理器已经让位给八核甚至更多核的组件。例如Dell PowerEdge M620都可以支持两个Xeon E5-2695 12核处理器,达到每刀……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

密集计算的流行正给现代数据中心带来深刻影响。硬件、系统、虚拟化、网络等支撑技术不断发展进化,在同样的物理空间架构内实现更高的计算性能。同时,密度的提升可以减少采购成本并降低能耗。当然,对于企业管理者来说,管理的压力也与日俱增,更加依赖硬件。

现在看来,下一代数据中心的规模会缩小,那么IT管理者必须在享受更高计算密度的同时,拿出一些措施降低相关风险。

硬件越来越给力


没有什么比高密度对计算硬件,如服务器、网络与存储设备部署的影响更加明显。单核、双核以及四核处理器已经让位给八核甚至更多核的组件。例如Dell PowerEdge M620都可以支持两个Xeon E5-2695 12核处理器,达到每刀片24核。

这一趋势同样也蔓延到服务器内存。内存模块充满了新功能,机架式服务器内存可以根据模块与功能选型(如备用内存、内存镜像等功能),扩展到128GB甚至1TB的容量。刀片服务器通常的内存规模为每刀片32GB到64GB总容量。当然,内存还可以通过使用相同型号的刀片机箱存储器快速增加,可支持6、8甚至更多刀片。

存储也变得越大越快,内存与存储之间的界限变得越来越模糊,而且闪存宣称其将在服务器架构中占据一个永久地位。比如,固态硬盘(SSD)设备已经在高性能存储层(有时候也被称为第0层)扮演着新角色,它采用传统的SATA/SAS硬盘接口,容量规模从100GB到1TB。

为了更好的存储性能,服务器可以选配基于PCIe固态硬盘加速器(SSA)的设备。当峰值存储性能成为关键时,IT专家们开始考虑TB级别的内存通道存储(MCS)设备。这个爆炸性的革命数据中心硬件并不完美。例如,增加高端内存容量会增加服务器成本,并降低性能。类似性能损失同样发生在采用非内置内存刀片服务器上,因为数据传输需要通过整个背板而有所延时。IT专家说,这种潜在问题正使传统系统的性能瓶颈从CPU扩展限制转向内存与存储问题,而且资源分配策略必须修改,以不断适应诸如数据中心密度增加的各种变化。

最近一些用户面临的新问题是管理存储层的IOPS。在虚拟机管理程序层,使用厚存储配置与自动精简配置会引发存储缓存问题,进而需要对存储层级进行重新划分。

当挂起写缓存满了,所有连接到阵列上的系统都可能崩溃或需要恢复。不过,尽管存有潜在隐患,潜台词是明确无误的:先进的硬件与虚拟化组合,可以让更多的工作负载在更少的服务器与更小空间内运行。

一些用户正在规划新的数据中心,所有业务都将只运行在一个单刀片机箱上。比如拥有近200个虚拟机,内部网络与SAN都将放入一个机架。十年前,这样的规模需要近2000平方英尺数据中心空间。

带宽与连接性跟上发展步伐


讨论数据中心密度必须包括网络的发展。传统以太网速度已经能够达到10GbE、40GbE甚至100GbE,只有少数组织采用更快的标准——而且主要用于超大规模数据中心的网络骨干上。

相反,大多数数据中心持续采用各服务器1GbE的部署方案,着眼于更大的服务器连通性与网络虚拟化。例如Dell PowerEdge M620提供24个内存插槽,可容纳双千兆网卡,可实现计算密集型任务的超快处理。同样大多数常规机架服务器都可以安装基于PCIe的多端口网卡。当服务器承载大量虚拟机时,通常才会去增加网络端口数量,而不是升级更快标准的以太网卡。多端口可以提升服务器可靠性,防止出现单点故障影响网络连通性。每个网卡通常都配置在不同交换机上,确保不会因为交换机故障而影响所有通信。不仅如此,多个网卡可以通过绑定技术来提供更高带宽,以满足工作负载需要。多网络接口还可以实现故障切换,允许工作负载在某个端口或交换机故障时,切换到可用的网口或交换机上。

另外两个新兴技术将影响数据中心网络密度与管理,软件定义网络(SDN)与网络功能虚拟化(NFV)。SDN将交换机逻辑与交换机端口去耦合,允许对交换机进行集中行为分析、控制并(在理想情况下)优化。网络可以“学习”更有效或更高效的网络通信路径,并修改交换机配置实现变更。若实施得当,SDN的交通流量优化可以实现在没有更大带宽的条件下细分流量,提高网络利用率。

通过比较,NFV利用标准服务器与交换机,使用虚拟化模拟复杂网络功能或应用程序。NFV可以提供包括网络地址转换(NAT)、域名服务(DNS)、防火墙、入侵检测与防御以及缓存等功能。其目标是利用服务器的标准功能,替代昂贵的专有网络设备,并实现快速部署与可扩展,这些功能非常适用于新兴云计算和其他自助服务环境。

撇开网速复杂性,配置对于确保日益密集的网络连接最佳性能是十分重要的。服务器与交换机之间的配置不当,可能导致性能问题,这一影响在工作负载迁移到更高性能服务器或计算高峰期需要额外资源时,会变得尤其突出。

散热有窍门


随着数据中心密度增加,IT专家们开始遇到由计算热点或不良通风而造成的发热问题。但是,现代数据中心很少遇到发热问题——这主要归因于过去几年中所开发的能源效率与热量管理技术。关键因素之一就是现代服务器与计算组件经过改良设计。以处理器为例,它通常是发热最高的部件之一,但新型处理器设计与模具制造技术基本能够保持处理器温度,即使核心数成倍增加也不受影响。我们以Intel Xeon E7-4809六核处理器为例,功耗为105瓦特,而Xeon E7-8880L 15核处理器功耗同样为105瓦特。提高时钟率到最快的Xeon E7-4890 15核处理器最高能耗也仅有155瓦特。

同时,数据中心运营温度也有所提升,因为IT人员发现数据中心温度在80或90华氏度时,对设备运行并没有任何明显影响。为了应付更高温度,服务器的热管理设计也有进一步改善,加入了热传感器与主动变速散热系统,从各个单元带走热量。

虚拟化是对让热量从服务器中移出的完美补充,可以大大降低整体服务器数量,以此也降低了需要从数据中心内排出的空气总量。类似VMware的分布式资源调度程序(DRS)与分布式电源管理(DPM)技术甚至可以根据需求在服务器之间移动负载,关闭不需要的服务器。最终结果是,数据中心不再依赖于庞大、耗电的机械空调系统,不需要为巨大空间内满负荷运行的硬件进行冷却。相反,高整合度的系统有利于容器与冷却基础设施更有效地冷却机架,甚至可以采用机架内冷却单元。

这样的整合与衔接也并非完美,IT专家指出,糟糕的设计与改造可能产生无法预料的热点。即使是四级数据中心,也无法保证其设计的100%正确、减轻冷却等经营风险。随着数据中心密度上升,监控系统与数据中心基础设施管理(DCIM)技术在确保热管理、能效与资源使用效益计算上就能产生客观的价值了。

还有一点说明


数据中心的密度肯定会增加,但是专家也指出,硬件的密度与可用率可能受到软件授权限制,而且存在软件维护周期的限制。

虚拟化服务器会消耗更多软件许可,因为它们更容易启动,保持未使用的情况还可能更长。但它们仍然需要软件维护和补丁更新,不管它们是否有在使用。随着数据中心增长与工作负载密度增加,许可授权与补丁通常可以通过系统管理工具解决,这些工具还可以协助IT人员进行虚拟机生命周期与补丁管理,缓解工作压力。

相关推荐