我们是否已经准备好为企业数据中心引进基于忆阻器的人工智能基础设施了呢? 我们做事情总是追求更快更智能,这是人的本性。在数据中心里,我们通过机器学习算法将巨大和快速的数据流分层,从而建立独特的业务竞争优势(或更大的社会效益)。 虽然有着令人瞩目的处理能力、性能和容量,今天的数字计算和存储仍然无法与我们的大脑相比,已远超数字架构的6、7或者8个数量级。如果我们想在生物规模和速度方面进行计算,我们必须利用能够远远超越这些严格数字的新形式硬件。
许多以机器学习为基础的应用程序以调查数据的内在模式和行为为基础,然后通过这些情报归类哪些是我们所知道的,并预测接下来会发生的事情,同时识别异常。这类似于我们自……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
我们是否已经准备好为企业数据中心引进基于忆阻器的人工智能基础设施了呢?
我们做事情总是追求更快更智能,这是人的本性。在数据中心里,我们通过机器学习算法将巨大和快速的数据流分层,从而建立独特的业务竞争优势(或更大的社会效益)。
虽然有着令人瞩目的处理能力、性能和容量,今天的数字计算和存储仍然无法与我们的大脑相比,已远超数字架构的6、7或者8个数量级。如果我们想在生物规模和速度方面进行计算,我们必须利用能够远远超越这些严格数字的新形式硬件。
许多以机器学习为基础的应用程序以调查数据的内在模式和行为为基础,然后通过这些情报归类哪些是我们所知道的,并预测接下来会发生的事情,同时识别异常。这类似于我们自己的神经元和突触,从传入的信号中进行学习,将学到的东西保存下来,然后“转发”出去用于做出更明智的决定(或采取行动)。在过去的30年里,AI从业人员已经建立了实用的神经网络和其他类型的机器学习算法用于各种应用程序,但是如今被有限的数字规模(成指数增长的互联网络规模只是其中一个方面)和速度所束缚。
今天的数字计算基础设施以切换数字位为基础,与摩尔定律同步还需克服一些重大障碍。即使有一些量级上的改善,也脱离不了传统数字设计范式,功耗、规模和速度等方面存在固有的限制。不管我们是否将人工智能进化成人形机器人,或者将更大规模的机器学习投入到更大型的数据集来实现更有针对性的广告预算,然而,传统计算基础设施根本就没有足够的原始动力可以达到生物的规模和密度。
最终,动力才是真正的缺陷。显而易见,组件之间的“信息传递”或信号(数据)来回传播是一项重要消耗。在数字设计的基础级别,即使是最小的数据处理任务,CPU之间也会产生大量的IO及其他操作。即使我们增加密度,制作更小的芯片或在CPU附件添加闪存,数字架构之间的比特移动仍将花费很大的精力和时间。在我们的大脑中,内存、存储和加工都是紧密融合的。
与数字系统不同的是,早上我们不需要花百万瓦特的电力起床,因为我们的大脑以低功率的模拟架构运行。而模拟电路,如果就眼下的问题进行自定义构建,可以直接以光的速度解决难题,而不需要大量的指令周期。根据多次的数值输出,它可以计算到任意精度。进一步而言,如果这种电路实现持久性存储,对于远程设备上的存储数字位就不会出现任何令人吃惊的IO等待。
向忆阻器问好
当然硅设备基本上是模拟的,但我们已经在上面建立了复杂的数字逻辑门和位存储。但如果我们可以“回到未来”利用今天的硅片密度为模拟计算电路来设计硅设备呢?新的突破利用了新兴的忆阻器设备的模拟属性。
忆阻器是一种可以通过输入的电信号改变其内部电阻的装置,持久性抵制可以测量和用于非易失性内存。忆阻器是一个类似DRAM的快速硅设备——至少比基于NAND的NVRAM快10倍,所以它可以作为主存储器。比如惠普一直在研究一种新的忆阻器技术作为持续的数字存储器,但目前尚未完全推向市场。如果实现的话,我们可能将迎来全新一代整合了存储和内存的数字计算架构。
现在我们看到的是,创业公司Knowm使用了开创性的新形式计算,利用忆阻器技术不仅在快速内存中存储数据,而且从内部预测危急的计算功能,否则需要将存储数据卸载到CPU,再经过加工并写回。Knowm称其利用了小型忆阻器电路的模拟特性——一个具有自适应学习能力的“突触”。它能够直接对传输进来的信号模式进行学习,同时持久保存。
从理论上讲,基于这个基本功能单元,几乎任何类型的机器学习算法可以获得极大的加速。虽然Knowm的发展还处于早期阶段,但已经提供了一个完整的技术堆栈——离散工作的突触芯片、可伸缩的模拟器、低级别的APIs 和更高级的机器学习库,再加上一个服务体系,该体系可以帮助大量的突触分层,直接映射到现有的CMOS设计。
对于AI和Terminator爱好者,Tanjea Group的团队认为破坏的机会远远大于机器学习加速。一个被Knowm称为Neural Processing Unit的新型硬件能够智能地利用模拟硬件功能实现极速、低功耗、高密度和存储融合计算,这是整个计算行业一个真正的重大变化与转折点。不管是谁首先利用这种类型的计算解决方案,都将可能导致大规模的转变,不仅仅是机器学习,还有所有计算的实现方法。
本文节选自《IT新架构》十月刊:数据中心水资源消耗引关注。