Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

业界首个适用于固体系统的神经网络波函数,登上Nature子刊

当今社会,“跨界” 逐渐成为各行各业寻找新可能的一个热门选择,学术界不同领域之间也时常能摩擦出智慧的火花。随着人工智能技术兴起,在化学、物理等领域,传统的研究方法逐渐与机器学习融合。

机器学习能够处理海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。比如 DeepMind 用人工智能软件 AlphaFold 对科学界已知的几乎所有蛋白质结构进行了高度准确的预测;Christian Lagemann 提出的基于深度学习的粒子图像测速 (PIV) 方法一改原本的纯手动设置参数,大大提升模型的应用范围,对汽车、航空航天和生物医学工程等多个领域的研究具有至关重要的意义。

AlphaFold 能够预测出几乎所有已知蛋白质的结构(图源:DeepMind

有充足的数据,有一个准确的模型来描述求解的科学问题,很多基础科学的 “百年未解之谜” 都能被机器学习迎刃而解。比如流体力学、凝聚态物理学、有机化学等等。

最近,字节跳动 AI Lab Research 团队和北京大学物理学院陈基课题组的工作《 Ab initio calculation of real solids via neural network ansatz》 给出了研究凝聚态物理的新思路,该工作提出了业内首个适用于固体系统的神经网络波函数,实现了固体的第一性原理计算,并将计算结果推向了热力学极限。其有力地证明了神经网络是研究固体物理的高效工具,也预示着深度学习技术将在凝聚态物理中发挥越来越重要的作用。相关研究成果于 2022 年 12 月 22 日发表于国际顶级刊物 Nature Communication 杂志上。

论文链接:https://www.nature.com/articles/s41467-022-35627-1


研究背景及研究方法

精确求解固体系统的薛定谔方程是凝聚态物理的圣杯之一。在过去数十年的凝聚态研究中,密度泛函理论被广泛采用并取得了巨大成功。

密度泛函理论:一种研究多电子体系电子结构的量子力学方法。

尽管如此,密度泛函理论仍存在着诸多不足:对于复杂的强关联系统,密度泛函理论无法给出精确描述;在泛函挑选上也缺乏系统性提高自身精度的方法。近年来,相比于密度泛函理论,更为精确和通用的波函数方法得到了越来越多的关注和研究。

针对这一现状,字节跳动 AI Lab Research 团队联合北京大学物理学院陈基课题组设计了适用于固体系统的周期性神经网络波函数,并与量子蒙特卡洛方法结合,实现了对于固体系统的第一性原理计算。在该工作中,深度学习技术被首次应用于连续空间的固体系统研究,并将计算推向了热力学极限

该工作的核心是将周期性推广后的系统特征向量与现有的分子神经网络波函数结合,构造出具有周期对称性和完全反对称性的固体系统波函数。之后,该工作运用量子蒙特卡洛方法高效地训练神经网络,并在一系列真实固体上进行了测试。


实验结果及分析

首先,作者在周期性的一维氢链上进行了测试。一维氢链是凝聚态中最为经典的系统之一,对于它的精确求解有助于人们理解强关联系统的特性。计算结果表明,神经网络可以达到与传统高精度方法(如辅助场蒙特卡洛)相近的精度。

随后,作者运用神经网络计算了二维石墨烯材料。石墨烯是近二十年来炙手可热的研究材料,它在导热、导电等方面的奇特性质具有重要的研究和应用价值。该工作精确计算了石墨烯的内聚能,计算结果与实验数据一致。

为了进一步验证工作的有效性,作者计算了三维的锂化氢材料并将计算规模推向了热力学极限,计算规模最大达到了 108 个电子,这也是至今为止神经网络所能模拟的最大固体系统。计算得到的材料内聚能,体积模量等均符合实验结果。

最后,作者研究了理论上更为有趣的均匀电子气系统。均匀电子气系统与许多新奇的物理效应(如量子霍尔效应)息息相关,因此深入理解均匀电子气具有重要的理论价值。计算结果表明,神经网络在均匀电子气上取得了不错的效果,接近甚至超越了许多传统高精度方法的结果。

该工作有力地证明了神经网络是研究固体物理的高效工具。随着算法的进一步完善,神经网络技术将在凝聚态物理中发挥更加重要的作用:如固体系统的相变,表面物理,非常规超导体等。这些课题的研究都需要高精度的固体波函数作为基石。同时,作者也在致力于研究更为高效的神经网络波函数,为凝聚态物理的研究提供更多可能性。

理论凝聚态物理北京大学字节跳动Nature
相关数据
字节跳动机构

北京字节跳动科技有限公司成立于2012年,是最早将人工智能应用于移动互联网场景的科技企业之一,是中国北京的一家信息科技公司,地址位于北京市海淀区知春路甲48号。其独立研发的“今日头条”客户端,通过海量信息采集、深度数据挖掘和用户行为分析,为用户智能推荐个性化信息,从而开创了一种全新的新闻阅读模式

https://bytedance.com
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

AlphaFold技术

DeepMind 提出的深度神经网络蛋白质形态预测方法。AlphaFold系统,是DeepMind在2017-2018年中一直在研究的项目,它建立在多年以前使用大量基因组数据来预测蛋白质结构的研究基础之上。 AlphaFold产生的蛋白质3D模型比以往任何一种都精确得多,在生物学的核心挑战之一上取得了重大进展。

量子力学技术

量子力学(Quantum Mechanics),为物理学理论,是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论。

北京大学机构

北京大学创办于1898年,初名京师大学堂,是中国第一所国立综合性大学,也是当时中国最高教育行政机关。辛亥革命后,于1912年改为现名。2000年4月3日,北京大学与原北京医科大学合并,组建了新的北京大学。原北京医科大学的前身是国立北京医学专门学校,创建于1912年10月26日。20世纪三、四十年代,学校一度名为北平大学医学院,并于1946年7月并入北京大学。1952年在全国高校院系调整中,北京大学医学院脱离北京大学,独立为北京医学院。1985年更名为北京医科大学,1996年成为国家首批“211工程”重点支持的医科大学。两校合并进一步拓宽了北京大学的学科结构,为促进医学与人文社会科学及理科的结合,改革医学教育奠定了基础。

官网,http://www.pku.edu.cn/
推荐文章
暂无评论
暂无评论~