据悉,Facebook将在其下一代计算系统中采用NVIDIA Tesla加速计算平台,从而使该系统能够运行各种各样的机器学习应用。
即便在最快的计算机上,训练复杂的深度神经网络以进行机器学习也需要花费数日或数周的时间,然而Tesla平台可将这一耗时缩短10-20倍。如此一来,开发者便能够更快地进行创新和训练更复杂的网络,从而为消费者提供更完善的功能。
Facebook是首家利用NVIDIA Tesla M40 GPU加速器来训练深度神经网络的企业,该加速器已于上个月发布。这些加速器将在全新的“Big Sur”计算平台中发挥重要作用,这一计算平台是Facebook人工智能研究院(FAIR)专为训练神经网络而打造的系统。
NVIDIA加速计算副总裁Ian Buck表示:“深度学习使计算行业开启了一个新的时代。借助于大数据和性能强劲的GPU,深度学习算法能够解决之前不可能解决的难题。从Web服务与零售业到医疗与汽车,各大行业均将掀起革命。NVIDIA GPU一直被用作深度学习的引擎,我们为此感到非常激动。我们的目标是为研究人员和企业提供最高效的平台来推动这一激动人心的事业实现进步。”
除了缩短神经网络训练用时以外,GPU还能够带来许多其它优势。一代又一代GPU之间的架构兼容性可提供无缝的速度提升,让用户将来能够实现GPU升级。Tesla平台越来越多地在世界各地被人们所采用,这有助于用户与全球的研究人员展开开放性合作,从而可在机器学习领域中促进新一轮探索与创新。
Big Sur专为机器学习而优化
NVIDIA携手Facebook工程师共同设计Big Sur并对其进行优化,以便为机器学习任务提供最高的性能,这些任务包括在多颗Tesla GPU上训练大型神经网络。Big Sur的性能高达Facebook现有系统的两倍,因而让该公司能够训练两倍数量的神经网络、创建两倍大小的神经网络。这将有助于开发更精确的模型和全新级别的高级应用。
Facebook人工智能研究院工程总监Serkan Piantino指出:“开发更智能的机器需要精深的知识,而开启这些知识的关键则在于我们计算系统的功能。在过去几年里,机器学习与人工智能领域中的大多数重大进步一直取决于利用强大的GPU和大型数据集来打造和训练先进的模型。”
Tesla M40 GPU的加入将有助于Facebook在机器学习研究工作中取得新的进步,让整个组织机构内的多个团队能够在各种各样的产品和服务中利用深度神经网络。
首个开源人工智能计算架构
Big Sur标志着专为机器学习和人工智能(AI)研究工作而设计的计算系统首次被发布为一款开源解决方案。
Facebook致力于公开开展人工智能研究工作并与整个社区分享自己的研究发现,该公司想要携手其合作伙伴通过开放计算项目(Open Compute Project) 来使Big Sur技术规范实现开源化。这一独特的方式将让世界各地的人工智能研究人员可以更轻松地分享和改进技术,从而可通过利用GPU加速计算的威力在机器学习领域中实现未来的创新。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
Facebook分享Chef DevOps成功迁移的经验
Phil Dibowitz是Facebook系统工程师,他率领Chef团队在过去三年重新思考配置管理,以便与超大规模公司的数据中心保持一样的水准。
-
GPU计算告诉你:HPC不再高冷
从近期在太原理工大学圆满落幕的ASC15总决赛来看,GPU计算再一次点燃了人们对HPC的兴趣,让人们对GPU加速以及HPC的认识与感悟又上升了一个阶段。
-
NVIDIA高调亮相ASC15决赛 推动全球超级计算发展
NVIDIA(英伟达)拥有当前最为先进的GPU技术,其Tesla系列GPU加速器更可为超级计算机系统提供强大的运算支持,近日高调亮相ASC15总决赛。
-
微软投资6.78亿美金扩展爱荷华数据中心
美国爱荷华州很受IT大佬们欢迎。Facebook刚刚投三亿美元新其全球第四个数据中心,微软更是大手笔再投资6.78亿美金扩展其数据中心。