nature来源陈若朦、牛婉杨编译

AI重回16世纪变身哥白尼!重新推导“日心说”,还将助力解决量子力学矛盾

天文学家花了几个世纪才弄明白的规律,如果从头交给机器学习算法去领悟,能重现被发现吗?

近日,苏黎世瑞士联邦理工学院(ETH)物理学家Renato Renner的团队就进行了这样让AI“重回16世纪”的尝试。

他们开发了一种新型的神经网络——受大脑结构启发的机器学习系统。然后,这个算法通过检测太阳和火星相对于地球的运动,竟然能够得出太阳位于太阳系中心的结论。

也就是说,让机器自学哥白尼时代的基础物理知识和相关轨道运行信息,它能够自行得出“太阳中心说”的结论,甚至还自行推出了哥白尼提出的的火星运动轨迹公式。

这一有趣的结论被小组成员们称为“重新发现了科学史上最重要的转折之一”,堪称人工智能领域“哥白尼”的诞生。

“哥白尼”神经网络诞生

从前,地球一直被认为是宇宙的中心,天文学家们用行星的小周期运转(本轮)来解释火星的运动。 直到16世纪,哥白尼发现,如果假设地球和其他行星都在绕太阳公转,则可以用更简单的公式来归纳行星运动规律。

这一发现堪称在人类科学史上的“高光时刻”之一,不仅在天文学上,在历史、宗教领域都带来了不可超越的重大影响。

据nature报道,这一人类花了几个世纪才弄清楚的行星运转规律, 也可以被算法短时间模拟。

来自ETH的研究团队称,他们的算法可以根据太阳和火星的运动轨道以及它们相对于地球的位置,推论出太阳位于太阳系的中心位置——这一壮举是这项技术的第一个测试。

加拿大多伦多大学物理学家Mario Krenn表示,该研究小组的神经网络得出了哥白尼提出的的火星运动轨迹公式,重新发现了科学史上最重要的转折之一。下一步,研究人员希望通过得出大数据的普遍规律和模式,用于新的物理定律的发现,并重新制定量子力学

传统的神经网络通过收集和分析庞大的数据(如图像和声音)来自我训练。通过大数据,神经网络可以总结出某类型事物特征的规律,例如,用“四只腿”和“尖耳朵”来识别猫。这些特征在其数学“节点”(人造神经元)上被编码。 但是,神经网络无法自动将这些信息提炼成几个易于解释的规则,它是一个黑匣子,以一种无法预测且难以解释的方式,将其获得的知识分布在成千上万个结点上。

Renner的团队设计了一种“迟钝型”的神经网络——由两个仅通过少数几个链接相互连接子网络组成。其中第一个子网络具备传统的数据学习功能,另一个子网络则使用学习得到的经验得出新的预测并测试。 由于两个子网络间相互连接的链路很少,因此第一个网络以压缩格式将信息传递给另一侧。Renner表示,整个过程有点像老师将知识传授给学生。

解决更复杂问题的希望,或有可能解决量子力学矛盾

尽管该算法能够推导出理论公式,但仍需要人亲自来解释这些公式,并得出它们与行星绕太阳运动的关系,但是,哥伦比亚大学的机器人学家Hod Lipson仍认为这项工作十分重要,因为它能够得出描述物理系统的关键参数。 他认为,这些技术是我们理解并跟上物理学中其他更复杂现象的希望。

Renner的团队希望开发机器学习技术,以帮助物理学家解决目前存在的量子力学矛盾。Renner说:“在某种程度上,当前的量子力学法可能只是历史的仿制品。”他认为,通过计算机可以提出不存在矛盾的公式。

为了实现该目标,Renner正在尝试改良其神经网络,该版本不仅可以从实验数据中学习,还可以提出新的实验方法来检验其假设。

Renato Renner

人工智能推演“三体”难题

希望利用神经网络解决物理问题的不止Renner一家。

前阵子,爱丁堡大学的Enter Philip Breen团队通过训练神经网络准确的对三体运动进行了预测,且速度比最先进的常规方法快了近1亿倍。

为训练神经网络,研究者首先将问题进行简化,假设三个黑洞为平面上的三个等质量粒子,各粒子初始速度为0。随机给定粒子的初始位置,使用最先进的Brutus方法进行求解,并将这一过程重复一万次。

Breen团队利用神经网络进行的三体实验

其中9900个算例作为神经网络的训练库,剩余100个用于验证。最后,用5000个全新算例测试神经网络,并将预测结果与利用Brutus方法得到的计算结果进行比对。

结果十分有趣!神经网络准确地预测了三体运动,并正确模拟出相近轨迹间的散度,与Brutus方法的计算结果极其相近。Breen团队表示,“我们已经证明深度人工神经网络可以在固定时间内快速且准确的解决三体问题这一计算难题。”

更重要的是,团队将能量消耗情况引入了神经网络预测能力的测试中。几次调整后,神经网络符合节能条件,且误差仅仅为10-5。

这一结果令人惊叹。且具有极大的潜力。Breen团队特别指出神经网络甚至能够解决Brutus方法无法计算的三体问题。

因此他们希望构建一个混合系统,使用Brutus方法进行所有繁重的计算,若计算负担过大,则引入神经网络,直到可运用Brutus方法继续计算。

这样,神经网络应该可以比以往更准确地模拟星系核和球状星团内部的黑体运动。

这仅仅是个开始,Breen团队表示,“终有一天,我们设想神经网络可以被训练解决更多混沌问题,例如四体或五体问题,并进一步减轻计算负担。” 

相关链接:https://www.nature.com/articles/d41586-019-03332-

大数据文摘
大数据文摘

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

理论机器学习深度学习神经网络量子
1
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

量子力学技术

量子力学(Quantum Mechanics),为物理学理论,是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论。

推荐文章
文末链接挂了.还有,发的文章的链接有么?