由于无法在处理器基本性能的提升上获得突破,业内处理器厂商近年来都将发展方向转为开发多核心产品。但美国Sandia国家实验室日前对未来更多核心处理器的应用效果进行了模拟试验,结果发现由于内存带宽和存储机制的限制,16核、32核甚至64核处理器对于超级计算机来说,不仅不能带来性能提升,甚至可能导致效率的大幅度下降。
以往,超级计算机的应用方向主要是模拟物理系统,诸如模拟地球大气层,模拟氢弹核裂变反应等等。这些系统本身就可以划分为多个区块分别计算,直接对应给多个处理器或处理器多核心,避免数据的频繁迁移来提高效率。而近年来,超级计算机在情报处理上的应用越来越频繁。诸如分析自然灾害中的交通网络状况,从电话录音中搜索恐怖分子暗语等等。这类情报应用往往需要大量检索数据库信息,超多核心处理器在这种应用中就不那么在行了。
Sandia实验室主要为美国国家安全部门服务,因此尤其关注情报应用。根据他们的模拟,8核心之后再往处理器内塞入更多的核心,并不能带来性能提升,在情报处理应用中反而会出现性能下滑。“16核的表现就和双核差不多”。他们近一年来和业内处理器厂商、超级计算机厂商以及超级计算机用户进行了大量讨论。得出的结论是,如果不对计算机架构作出修改,未来当出现16核32核处理器时,为超级计算机编程的程序员或许只好屏蔽部分核心,或是将这些处理器用于非重点运算应用。
红色为目前架构的多核心性能 黄色为堆叠内存处理器性能
问题的关键在于存储带宽上。尽管处理器内的核心在不断增加,但CPU同外界的通道带宽却没有同步增长。对于超多核心处理器来说,用数据把它们喂饱成了一个难题。当一个处理器核心需求某段数据时,它们可能还存储在20米外机架上的某台机器内存中,需要通过多层光纤路由才能获得,长时间等待数据就浪费了大量处理器性能。
为解决这一问题,美国能源部今年组织Sandia国家实验室和橡树岭国家实验室的专家,组成先进架构和算法研究所,探讨未来5到10年内超级计算机对处理器的需求,以期调整行业导向。根据他们的模拟,在处理器芯片上堆叠存储芯片,以大幅提高存储带宽,或许是一种解决方案,至少不会使多核心处理器性能下滑。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
作者
相关推荐
-
基于SGI硬件和SUSE操作系统的高性能计算助力道达尔油气业务
道达尔使用基于SGI硬件和SUSE操作系统的高性能计算解决方案,其计算能力是替换机型的10倍,可以帮助道达尔更高效地识别和勘探新的储层。
-
IDC:2013年HPC服务器收入下滑7.2%
根据IDC最新发布的全球高性能技术服务器市场QView报告显示,2013年全年全球高性能计算技术服务器市场的收入从2012年创纪录的111亿美元下滑7.2%至103亿美元。
-
TOP500超级计算机榜单:近200家采用惠普服务器
在本届Top500超级计算机榜单上,来自中国国防科技大学的天河-2号仍旧把持着冠军宝座。其中有198家公司采用了惠普服务器。
-
IBM和英伟达将共同开发超级计算机和Power服务器
在本周发布的全球500大性能最强超级计算机名单中,IBM和英伟达的地位均有所上升。IBM和英伟达周一宣布,将合作设计及开发超级计算机系统和服务器。