Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Joey、Aileen编译

运算更快,耗电更少!香港科技大学首创多层全光学人工神经网络

如今,尽管计算机已经具有了十分强大的学习能力,但是在图像模式识别、风险管理等复杂任务上都还难以达到与人类持平的水准。

然而,最近光纤神经网络方面的新技术或许可以显著拉近计算机与人脑的这一差距。

借助光学实现并行计算

研究人员近日表示,他们首创的多层全光学人工神经网络已经有了很大突破,作为这一类神经网络的最新成果,这是实现大规模光纤神经网络的关键进展。

通常,这种类型的神经网络可以解决传统计算方法无法解决的复杂问题,但是与此同时它也需要耗费大量运算时间和大量计算资源。因此,人们都希望能够开发出更加实用的光学人工神经网络,也就是比基于传统算法的人工神经网络运算更快且耗电更少。

在光学学会的研究期刊Optica中,来自香港科技大学的研究人员详细介绍了他们的双层全光学神经网络,以及他们是如何成功将其应用于复杂的分类任务。

“我们的全光学神经网络可以以光速进行并行计算而消耗很少的能量,”研究团队成员刘军伟表示,“大规模的全光学神经网络可以用于从图像识别到科学研究的各种场景。”

双层全连接全光学神经网络的构建

在传统的混合型光学神经网络中,光学元素通常作为线性运算的部分存在,而那些非线性运算的部分,即通常是那些模拟人脑神经元反应的部分一般是通过电子方式实现的,因为非线性光纤通常需要高功率激光,而这在光学神经网络中比较难实现。

为了克服这一困难,研究人员们使用具有电磁感应透明度的冷原子来完成神经网络中非线性运算的部分。“这种光诱导效应可以通过消耗功率很低的弱激光实现,”研究团队成员杜胜望说,“因为这种效应是基于非线性量子干涉,所以有可能将我们的系统扩展到量子神经网络中,这可以解决经典神经网络难以解决的问题。”

为了确认新方法的能力与可行性,研究人员构建了一个双层全连接全光学神经网络,它有16个输入值和2个输出值。研究人员使用他们的全光网络对伊辛模型(Ising Model)的顺序和无序阶段进行分类。结果表明,全光学神经网络与传统基于计算机的神经网络一样准确。

(a)典型双层神经网络原理图;(b)包含线性与非线性运算功能的光学神经元的原理图。

向大规模光学神经网络扩展

研究人员计划将全光学的方法扩展到具有复杂架构的大规模全光学深度神经网络上。这些架构专为图像识别等特定目标而设计,而这样的扩展将有助于证明该方案在更大范围同样适用。

“尽管我们的工作是一个对原理的论证,但它说明未来有可能会开发出光学版本的人工智能。”杜胜望表示。

“与今天的基于计算机的人工智能相比,下一代人工智能会更快、功耗更低。”刘军伟补充道。

相关报道:

https://www.sciencedaily.com/releases/2019/08/190829101101.htm

大数据文摘
大数据文摘

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

理论神经网络香港科技大学光学神经网络深度学习
1
相关数据
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

量子神经网络技术

将量子理论与神经计算相结合是美国路易斯安那(Louisiana) 州立大学Kak 教授的创举,他在1995年发表的“On Quantum Neural Computing”一文首次提出量子神经计算的概念,开创了该领域的先河。同年英国 Sussex大学的Chrisley提出了量子学习(Quantum Learning)的概念,并给出非叠加态的量子神经网络模型和相应的学习算法。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

港科大机构

香港科技大学(The Hong Kong University of Science and Technology),位于中国香港,简称港科大(HKUST),为环太平洋大学联盟、全球大学校长论坛、东亚研究型大学协会、亚洲大学联盟、中国大学校长联谊会重要成员,并获AACSB和EQUIS双重认证,是一所亚洲顶尖、国际知名的研究型大学。该校以科技和商业管理为主、人文及社会科学并重,尤以商科和工科见长。截至2019年9月,学校设有理学院、工学院、工商管理学院、人文社会科学学院等4个学院及跨学科课程事务处;校园占地超过900亩,有教员697人,各类学生16054人,其中本科生10148人,研究生5906人。

https://hkust.edu.hk/
推荐文章
暂无评论
暂无评论~