清华团队获突破,AI忆阻器打破"冯诺依曼限制"

2020-2-27 10:50:00
  • 据报道,传统的计算机将数据储存在内存中,而后传送到办理器运算。这种来回“搬运”数据的流动消耗能源和工夫,被认为是冯·诺依曼计算架构的核心瓶颈。

而人类的大脑却并非如此,而是间接在记忆体里计算。被认为具有“存算一体”潜力的忆阻器,因此成为类脑计算范围的热门器件。清华大学微电子所、将来芯片技术高精尖翻新中心钱鹤、吴华强团队与竞争者在顶尖学术期刊、英国《作做》杂志(Nature)在线颁发论文,报导了基于忆阻器阵列芯片卷积网络的完好硬件实现。

该存算一体系统在办理卷积神经网络(CNN)时能效比前沿的图形处理器芯片(GPU)高两个数量级,可以说在一定程度上冲破了“冯诺依曼瓶颈”的限制:大幅提升算力的同时,实现了更小的功耗和更低的硬件成本。

什么是忆阻器?

忆阻器,全称记忆电阻器(Memristor),是继电阻、电容、电感之后的第四种电路底子元件,默示磁通与电荷之间的关系,最早由加州大学伯克利分校教授蔡少棠在 1971 年预言存在,惠普公司在 2008 年研造成功。

简略来说,这种组件的的电阻会随着通过的电流质而扭转,而且就算电流进行了,它的电阻依然会停留在之前的值,直到承遭到反向的电流它才会被推回去,就是说能“记住”之前的电流质。

这种巧妙的成效,其实和神经元突触有相仿之处。再加上忆阻器还具有尺寸小、支配罪耗低、可大规模集成(三维集成)等优点,难怪计算机科学家们在忆阻器身上看到了存算一体、低能耗类脑计算的前景。

忆阻器阵列

只管国内外许多企业、钻研机构赐与存眷,但据清华大学新闻页面报导,当前国际上的忆阻器钻研还停留在简略网络构制的验证,或者基于少质器件数据停止的仿真。基于忆阻器阵列的完好硬件实现依然有不少挑战。

比如,器件方面,须要造备高一致、牢靠的阵列;系统方面,忆阻器因工做原理而存在固出缺陷(如器件间波动,器件电导卡滞,电导形态漂移等),会招致计算精确率降低;架构方面,忆阻器阵列实现卷积罪能须要以串行滑动的方式间断采样、计算多个输入块,无奈婚配全连贯构制的计算效率。

通过连年来积攒的一些成就,钱鹤、吴华强团队逐渐优化资料和器件构制,造备出了高性能的忆阻器阵列。2017 年 5 月,该课题组就曾在《作做通讯》呈文称,初度实现了基于 1024 个氧化物忆阻器阵列的类脑计算,将氧化物忆阻器的集成规模进步了一个数质级。这使芯片愈加高效地完成人脸识别计算任务,将能耗降低到原来的千分之一以下。

忆阻器神经网络

此次,钱、吴团队集成了 8 个包含 2048 个忆阻器的阵列,以进步并行计算的效率。

在此根底上,他们构建了一个五层的卷积神经网络停止图像识别,取得了 96%以上的高精度,成绩显示,基于忆阻器的卷积神经网络比目前最先进的 GPU 的能效要超出逾越两个数质级。

这样的提升是如何实现的?原来,为处置惩罚惩罚器件固出缺陷构成的系统识别精确率下降问题,他们提出了一种新型的混合训练算法,仅需用较少的图像样本训练神经网络,并微调了最后一层网络的局部权重。

与此同时,他们提出了空间并行的机造,将雷同卷积核编程到多组忆阻器阵列中,各组忆阻器阵列可并行办理差异的卷积输入块,进步并行度来加速卷积计算。

多个忆阻器阵列并行办理

随着摩尔定律放缓,计算界翘首以待新的架构冲破冯诺依曼瓶颈,适应越来越复杂的 AI 问题。基于忆阻器的存算一体系统在这场角逐中稳步前进。

『本文转载自网络,版权归原作者所有,如有侵权请联系删除』