数据经理应该研究GPU深度学习

日期: 2018-02-23 作者:Jack Vaughan翻译:冯昀晖 来源:TechTarget中国

与AI相关的深度学习和机器学习技术已经变成大数据圈常见的讨论话题。这一趋势对于数据管理者们来说是值得关注的,原因有很多,其中最重要的是这些新技术对现代数据基础设施的潜在影响。

讨论话题的焦点越来越集中于图形处理器(GPU)。GPU已经成为了AI领域公认的热点话题。GPU深度学习已经酝酿了一段时间,不过发展步伐还在加快。

深度学习是AI机器学习领域的一个分支,基于超大数据集构成的多层神经网络递归执行。GPU深度学习是硬件基础设施和高级软件特别有效的组合,目标应用范围从推荐引擎到无人驾驶都覆盖。

现今GPU有非常高的内存带宽,处理大数据比较容易——想想复杂的矩阵乘法。因此,GPU很适合用于对并行处理有需求的深度学习。在深度学习模型创建时的训练阶段尤其有价值。

与CPU相比GPU仍然相对少见。所以GPU芯片成本更高,具备基于GPU开发能力的技术人员成本也更高。另外,随着图数据库、Apache Spark以及最近Apache Hadoop 3.0 Yarn实施包的出现,GPU也可以扩展应用于AI深度学习之外的领域。

直到有了GPU

如果数据经理们还记得全用途32位CPU出现之前的世界,就可以回想起当时的浮点协处理器和阵列处理器,以及它们在某些应用中的特殊用途。

新一代开发人员说他们的应用需要迁移到数学强相关的GPU基础架构,经理们该如何思考呢?答案是:会涉及到很多移动部件。

首先,如果任务限制在运行于单台服务器上的少量GPU时没问题。Bernard Fraenkel认为,如果超过单台服务器,深度学习任务就会出问题。这不仅仅是芯片的问题。

Fraenkel是硅谷软件集团实践经理(该公司是美国旧金山一家技术咨询实务公司)。他说:“如果你达到了那个点(配置需求),你就需要使用一台以上的服务器,不过你可能很难保证两台计算机之间可以接受的带宽。我们很难预见到服务器之间的通信开销。”

服务器交互问题浮现

服务器之间的问题涉及云供应商、服务器厂商和芯片制造商,大家要在主板和服务器层面研究问题。通过各方面提升,GPU深度学习的实现会与运行之上的系统依赖关系更紧密,这种情况要迁移到其它系统就更难了。这就是问题。

此外,云供应商和其它厂商还在努力优化上层运行的软件,这也给重新托管(迁移)你内部部署或在其它云部署的深度学习应用带来了障碍。当然,如果需要额外计算能力,迁移就需要更多额外的预算。

Fraenkel强调,重要的是要理解,这个领域发展变化非常快速。所以即使GPU深度学习不是他们的当务之急,数据经理们应该特别注意。

Fraenkel说:“我们仍然处在人工智能应用的早期阶段。算法和硬件(诸如芯片、服务器和数据中心)仍然在快速发展变革。”。

此外,CIO们尤其需要学习构建这些应用的所有层次。

Fraenkel说:“他们现在应该做评估,对所有移动部件选择做到有理有据。这些能力不是一下子就能学会的。”

这类基础设施的剧烈变化是有优先次序的,也有许多与新鲜事物有关。

最近几年,大数据分析技术的发展影响了基础设施的变革——列数据库和分布式文件系统也变得随手可得了——但是芯片级别的变化还都比较轻微。

特别是深度学习,看起来似乎与别的不同——Fraenkel认为它的变更在芯片级及以上级别。另外,随着可用于专门方向的大量新人工智能芯片出现,GPU、机器学习和深度学习可能是未来大数据分析的几个转折点。

到目前为止,许多经理人仍然是以观众心态看待基于深度学习的GPU活动,而不是参与者心态。不过,从某种程度上来讲,积极的兴趣可能是很好的衡量标准,因为GPU深度学习变革非常快,影响重大深远。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者

Jack Vaughan
Jack Vaughan

TechTarget新闻记者和网站编辑,主要关注数据管理领域的技术趋势和动态。

相关推荐