为服务器和存储系统提供端到端连接解决方案的领先供应商Mellanox® Technologies Ltd.(NASDAQ: MLNX; TASE: MLNX)于近日宣布:其ConnectX®-2 InfiniBand适配器和IS5000 InfiniBand交换机被证实具有全球最快的点对点通信MPI性能。最近在Mellanox性能优化实验室进行的集群基准测试中,Mellanox InfiniBand突显了其点对点通信的MPI信息速率——几乎可以达到每秒9000万次,这比其他同类的InfiniBand解决方案要超出三倍多。随后的基准测试也表明,随着节点和流程的增加,Mellanox端对端的InfiniBand连接性为应用程序提供了线性可扩展的信息速率。
HPC和技术计算的高级主管Gilad Shainer表示:“我们提供了最快的点对点MPI信息速率,以及完整传输卸载和MPI加速功能(如MPI collective offload),使得HPC用户可以建立均衡、高效、无瓶颈的CPU/GPU系统。Mellanox的高性能互连解决方案旨在以更高的应用性能、更快的并行通信和最高的可扩展信息速率来支持全世界科学家和研究人员不断增长的需求。”
Mellanox的端到端InfiniBand连接包括ConnectX®-2 I/O适配器产品系列、电缆和IS5000系列的固定和模块交换机组合,可以提供业界领先的性能、效率及具有最佳投资回报的性能互连的可扩展效益。针对世界上最高要求的计算应用,Mellanox为其全球用户提供了的最高性能的端到端网络解决方案。
在美国计算机协会和电气电子工程师协会联合举办的国际计算机架构讨论会(ISCA)上的一次发言中,谷歌公司(Google)的科学家们建议能源均衡的数据中心使用一种独特的“蝴蝶拓扑架构”,它是由每秒40Gb的InfiniBand交换机和适配器所构成的。通过利用InfiniBand互连(每端口2.5Gb/秒至40Gb/秒)的固有灵活性来优化数据中心的利用率,并将功耗降至最低,数据显示InfiniBand网络可减少85%的功耗。
Mellanox Technologies(NASDAQ: MLNX; TASE: MLNX)的董事会主席兼首席执行官Eyal Waldman表示:“在InfniBand的基础上创建高性能企业数据中心的建议是这种技术的可行性步骤。Mellanox InfiniBand技术降低了数据中心的功耗,以便将能效最大化,从而使企业在多元市场上取得更好的投资回报。作为InfiniBand行业的领先企业,我们将这项建议看作是InfiniBand技术在企业网络、云、互联网托管和Web 2.0应用等领域发展的见证。”
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
Mellanox:我们倡导联合设计 网卡与交换机可以为CPU分忧
一直以来,CPU是整个计算系统的核心所在,承担着诸多繁重的任务。Mellanox表示,可以换个角度思考问题,让交换机与网卡成为协同处理器,分担任务。
-
部署OpenFlow会对数据中心软硬件有何影响?
要成功部署OpenFlow,硬件与软件该作何改变?有什么互操作性需要考虑么?OpenFlow部署会需要遵从OpenFlow的交换机……
-
高性能万兆网络迎接云计算应用
Lippis Report和IP网络测试解决方案提供商Ixia进行了开放万兆以太网数据中心交换机行业评估,戴尔Force10 S4810万兆交换机在测试中表现非常出色。
-
FUSION-IO助力IBM HIGH IOPS适配器 新款容量高达1.28TB
Fusion-io于昨日宣布,IBM在基于Fusion的ioMemory技术上,现在可以推出8个版本的High IOPS适配器部署在其System x服务器产品中。