Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

博世团队提出参考神经算子,学习偏微分方程解对几何变形的平滑依赖

图片

编辑 | 枯叶蝶

在解决具有任意形状域的偏微分方程问题时,现有的神经算子方法致力于学习从几何形状到解的映射,但这通常需要庞大的(几何,解)二元组数据集来训练神经算子以确保准确性。

然而,对于如工程设计优化等工业应用,因单次仿真可能耗时数小时乃至数天,满足此数据需求极为困难。

针对这一挑战,博世人工智能中心(BCAI)的研究人员提出了参考神经算子(RNO)的概念,作为一种新颖的神经算子实现方式,旨在学习解对几何形变的平滑依赖。

具体而言,给定一个参考解,RNO 能够预测该参考几何形状任意微小扰动下的对应解,此方法极大地提高了数据利用效率。RNO 在准确度方面大幅领先基准模型,并实现高达 80% 的误差减少。

该研究「Reference Neural Operators: Learning the Smooth Dependence of Solutions of PDEs on Geometric Deformations」被收录在 ICML 2024

图片

论文链接:https://icml.cc/virtual/2024/poster/34670

RNO 方法概述

RNO 的核心在于,给定一个参考解和相应的几何形状,模型能够预测在任意微小形变下该几何形状的解。相比于直接预测解本身,RNO 通过预测解的变化量 δu 来降低学习复杂度。具体而言,给定参考区域到查询区域的光滑形变 φ,可以计算参考解的前推 ur ◦ φ-1,再结合 RNO 预测的变化量 δu 就可以得到预测解 。

图片

图示:与以前方法的比较。(来源:论文)

为了实现这一目标,RNO 采用了一种分层架构,包括编码器 P、积分算子层 L  以及解码器 Q。编码器 P 能够处理不同数量的几何对象,通过共享编码器对每个几何组件进行编码并汇总输出。积分算子层则构建了从输入到隐藏表示的转换,而解码器 Q 负责将隐藏表示映射回解空间。其中 P、Q 由 MLP 实现,积分算子层L由交叉注意力层实现。

损失函数设计上,RNO 最小化预测解与真实解之间的差异,假设存在从参考域到查询域的平滑形变及其逆映射。值得注意的是,RNO 对形状变化的应用前提是形变保持拓扑一致性,即不涉及孔洞的增减等导致的拓扑结构变化。

图片

图示:模型架构概述由两个阶段组成。(来源:论文)

总之,RNO 通过创新地学习解跟随形变的平滑变化,以较少的数据量实现了高效的解预测,展示了在多种几何配置和少量样本情况下的优越性能,减轻了传统方法对大数据集的依赖。

RNO 的有效性和优势

研究者通过一系列实验验证了参考神经算子(RNO)的有效性和优势。

首先,他们将 RNO 与多种基线模型进行了比较,包括传统的无参考解输入的 G-S 神经算子(几何到解的神经算子)例如 GNOT,以及加入了参考解信息的 G-S 神经算子(增加 R-前缀)R-GNOT 等。

结果显示,RNO 在所有测试问题上的表现均优于所有基线模型,尤其是与直接使用参考解推前变形结果相比,RNO 能显著降低 50% 到 80% 的相对误差,表明其成功学习了解的差异而非简单几何变换。

图片

图示:(左)所有分量的平均误差与数据集大小的关系;(右)误差与距离。(来源:论文)

实验中采用的评估指标是 L2 相对误差,训练过程使用了 AdamW 优化器配合循环学习率策略。RNO 在不同数量和类型的几何对象上展现了良好的泛化能力,且即便是在数据量较小的情况下也能保持高效学习。

进一步的扩展实验中,RNO 被应用于具有复杂几何形状变化(如挤压、拉伸、旋转)的 Airfoil-Euler 和 Airfoil-RANS 数据集,模拟了实际应用场景中对测试查询找到训练集中最近邻参考解的过程。

RNO 不仅在这些复杂场景中保持了高精度,而且显示出处理自由形式变形的能力,进一步证明了其作为高效、灵活工具的潜力,特别是在那些单次仿真成本高昂的工程设计优化场景中。

讨论

在相关研究中,神经算子领域在学习偏微分方程解算子方面已经取得了显著进展,其中 DeepONet 通过深度学习直接从各类函数映射到解,而 Fourier 神经算子(FNO)通过傅立叶变换在规则网格上有效运作。尽管这些模型在固定域问题上表现出色,但对于变化几何形状的处理能力有限。

Geo-FNO 和 GINO 分别尝试结合形变映射和 FNO、图神经网络来应对不规则几何问题,但仍需大量数据训练以覆盖各种几何形态。

此外,一些融合方法将机器学习与传统数值求解器结合,以加速求解过程,但它们往往依赖于特定问题或需要与数值方法紧密结合。

图片

图示:(左)误差与层数;(右)DACA的误差与 γ。(来源:论文)

与之相比,该团队提出的参考神经算子(RNO)专注于学习几何形变导致的解的变化,并通过引入距离感知交叉注意力机制(DACA),在数据效率和模型泛化能力上取得显著提升,尤其是在处理小数据集下的多类型、多数量几何对象问题时,展现出了超越基线模型的性能。

理论
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

学习率技术

在使用不同优化器(例如随机梯度下降,Adam)神经网络相关训练中,学习速率作为一个超参数控制了权重更新的幅度,以及训练的速度和精度。学习速率太大容易导致目标(代价)函数波动较大从而难以找到最优,而弱学习速率设置太小,则会导致收敛过慢耗时太长

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

图神经网络技术

图网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。生成的节点嵌入向量可作为任何可微预测层的输入,并用于节点分类或预测节点之间的连接,完整的模型可以通过端到端的方式训练。

优化器技术

优化器基类提供了计算梯度loss的方法,并可以将梯度应用于变量。优化器里包含了实现了经典的优化算法,如梯度下降和Adagrad。 优化器是提供了一个可以使用各种优化算法的接口,可以让用户直接调用一些经典的优化算法,如梯度下降法等等。优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。用户基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer(tensorflow下的优化器包)等等这些算法。

推荐文章
暂无评论
暂无评论~