IBM认为模拟芯片可为机器学习加速1000倍【www.hg6686net】

互联网

www.hg6686net

www.hg6686net:下,IBM正在创建一个研究中心,以开发新一代AI硬件,并期望拓展其纳米技术的牵头研究工作。据理解,IBM Research AI硬件中心合作伙伴涵括半导体仅有产业链上的公司,还包括IBM生产和研究领域的战略合作伙伴三星,网络解决方案公司Mellanox Technologies,获取建模和原型设计解决方案软件平台提供商Synopsys,半导体设备公司Applied Materials和Tokyo Electron Limited(TEL)。

还与纽约州奥尔巴尼的纽约州而立大学理工学院主办方合作,展开拓展的基础设施反对和学术合作,并与附近的伦斯勒理工学院(RPI)计算出来创意中心(CCI)合作,积极开展人工智能和计算出来方面的学术合作。新的处置硬件IBM研究院的半导体和人工智能硬件副总裁Mukesh Khare回应,目前的机器学习容许可以通过用于新的处置硬件来超越,例如:数字AI核心和近似计算带上仿真内核的内存计算出来使用优化材料的仿真核心图1:IBM Research AI硬件中心制订的一个路线图,在未来十年内将AI计算出来性能效率提升1000倍,并获取数字AI核心和仿真AI核心管道。Mukesh Khare提及将深度神经网络(DNN)同构到仿真交叉点阵列(仿真AI核心)。

它们在阵列交叉点处具备非易失性存储器材料以存储权重。DNN计算出来中的数值被权重以提升训练过程中决策的准确性。这些可以必要用交叉点PCM阵列构建,需要主机服务器CPU介入,从而获取内存计算出来,需要数据暂存。

首页

与英特尔XPoint SSD或DIMM等数字阵列构成对比,这是一个仿真阵列。PCM沿着非晶态和晶态之间的8级梯度记录神经元权重。

每个步骤的电导或电阻可以用电脉冲转变。这8级在DNN计算出来中获取8位精度。图2:非易失性存储器的交叉开关阵列可以通过在数据方位处继续执行计算出来来加快几乎相连的神经网络的训练。

仿真存储器芯片内部的计算出来在IBM的研究报告中认为:“仿真非易失性存储器(NVM)可以有效地加快”偏移传播(Backpropagation)“算法,这是许多近期AI技术变革的核心。这些存储器容许用于基础物理学在这些算法中用于的“乘法-相加”运算在仿真域中,在权重数据的方位处分段化。

www.hg6686net

“与大规模电路相加并将数字互为加在一起有所不同,我们只需将一个小电流通过电阻器相连到一根导线上,然后将许多这样的导线相连在一起,让电流积存一起。这让我们可以同时继续执行许多计算出来,而不顺序继续执行。也不是在数字存储芯片和处置芯片之间的传输数字数据,我们可以在仿真存储芯片内继续执行所有计算出来。

“图3:我们的仿真AI内核是性能效率内存计算方法的一部分,通过避免与内存之间的数据传输来突破所谓的冯·诺伊曼结构瓶颈,从而提升了性能。深度神经网络被同构到仿真交叉点阵列,并且转换新的非易失性材料特性以在交叉点中存储网络参数。(公众号:)编译器,viablocksandfiles、ibm blog版权文章,予以许可禁令刊登。

下文闻刊登须知。。

本文来源:皇冠hg6686官方网站-www.novatohalfmarathon.com

相关文章

网站地图xml地图