Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Michael Feldman作者Nextplatform翻译自

六大「未来式」存储器,谁将脱颖而出?

神经形态计算的浓厚兴趣刺激人们研发出一系列全新的存储设备,这些设备可以复制生物神经元和突触功能。最近,一篇回顾该领域现状的论文对六种最有前景的技术进行了盘点和解读。

这篇题为“用于神经形态计算的新兴存储器件”的论文发表在1月份的《先进材料技术》(Advanced Materials Technologies)上。论文中,作者阐述了摆脱晶体管和冯·诺依曼架构转而采用与尖峰神经网络更紧密结合的技术的优势,尖峰神经网络神经形态计算的基础。论文的目的是在神经形态计算中找出比CPU、GPU、DRAM和NAND等传统设备更快、更节能的设备。

论文作者盘点和介绍的六种存储器件包括电阻式记忆存储器(ReRAM)、扩散式忆阻器、相变存储器(PCM)、非易失性磁性随机存储器(MRAM)、铁电场效应晶体管(FeFET)和突触晶体管。下面我们具体地看一下。

ReRAM

ReRAM是基于电阻式随机存取的一种非易失性存储器。换句话说,关闭电源后存储器仍能记住数据。ReRAM可以由许多化合物制成,最常见的化合物是各种类型的氧化物。据论文作者介绍,ReRAM的主要优势在于其可扩展性、CMOS兼容性、低功耗和电导调制效应,这些优点让ReRAM可以轻松扩展到先进工艺节点,能够进行大批量生产和供应,并且能够满足神经形态计算等应用对能耗和速度的要求,所有这些都使ReRAM成为下一代存储器的主要竞争者。

ReRAM对神经形态计算的适用性与忆阻器根据施加电压的历史改变其状态的能力有关。由于这种能力,ReRAM具有生物神经元和突触的时间特性和模拟特性。基于ReRAM技术的人工神经突触是一种非常有前途的方法,可用于在神经形态计算中实现高密度和可缩放的突触阵列。不过,论文作者同时也指出,让这些忆阻器更均匀以便让它们可靠地运行仍然是一个挑战。

根据2017年的报道,由Wei Lu领导的密歇根大学电气工程和计算机科学系的一个小组演示了一个神经形态原型装置,该装置在交叉网络中使用了排列的忆阻器。作为Crossbar的首席科学家,Lu正在帮助实现该技术的商业化。Crossbar是他在2010年与他人共同创立的公司,目前正在与客户合作向市场推出Crossbar ReRAM解决方案。Crossbar的ReRAM技术是基于一种简单的器件结构,使用与CMOS工艺兼容的材料和标准的CMOS工艺流程。它可以很容易地在现有的CMOS晶圆厂中被集成和制造。并且由于是低温、后端工艺集成,Crossbar的ReRAM能够实现构建3D ReRAM存储芯片。除了Crossbar外,东芝、Elpida、索尼、松下、美光、海力士、富士通等厂商也在开展ReRAM的研究和生产工作。在制造方面,中芯国际(SMIC)、台积电(TSMC)和联电(UMC)都已经将ReRAM纳入自己未来的发展线路图中,格罗方德(GlobalFoundries)等其他企业对于ReRAM技术较为冷淡,正在开展其他内存技术的研发工作。

专业用户独享

本文为机器之心深度精选内容,专业认证后即可阅读全文
开启专业认证
产业存储器扩散式忆阻器ReRAM神经形态计算神经网络相变存储器MARM铁电场效应晶体管突触晶体管
2
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
冯·诺依曼人物

约翰·冯·诺伊曼(德语:John von Neumann,1903年12月28日-1957年2月8日),原名诺依曼·亚诺什·拉约什(匈牙利语:Neumann János Lajos),出生于匈牙利的美国籍犹太人数学家,现代电子计算机与博弈论的重要创始人,在泛函分析、遍历理论、几何学、拓扑学和数值分析等众多数学领域及计算机学、量子力学和经济学中都有重大贡献。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

神经形态计算技术

神经形态工程也称为神经形态计算,是Carver Mead在1980年代后期开发的一个概念,描述了使用包含电子模拟电路来模拟神经系统中存在的神经生物学结构的超大规模集成(VLSI)系统。 近来,神经形态(Neuromorphic)一词已被用于描述模拟、数字、混合模式模拟/数字VLSI以及实现神经系统模型(用于感知,运动控制或多感官集成)的软件系统。

嵌入式系统技术

嵌入式系统,是一种嵌入机械或电气系统内部、具有专一功能和实时计算性能的计算机系统。嵌入式系统常被用于高效控制许多常见设备,被嵌入的系统通常是包含数字硬件和机械部件的完整设备,例如汽车的防锁死刹车系统。

暂无评论
暂无评论~