摘要:谷歌 DeepMind 联合纽约大学、斯坦福大学、布朗大学等机构的研究人员,基于机器学习框架以及高精度的高斯-牛顿优化器,在 3 个不同的流体方程中首次系统地发现了新的不稳定奇点,并揭示出一条简洁的经验渐近公式,将爆破速率与不稳定阶数联系起来。
谷歌 DeepMind 联合纽约大学、斯坦福大学、布朗大学等机构的研究人员,基于机器学习框架以及高精度的高斯-牛顿优化器,在 3 个不同的流体方程中首次系统地发现了新的不稳定奇点,并揭示出一条简洁的经验渐近公式,将爆破速率与不稳定阶数联系起来。
早在今年 5 月底,数学家 Javier Gómez Serrano 就在一次采访中透露,正在与谷歌 DeepMind 联手,「试图尽快破解人类已知最棘手的谜题之一——纳维-斯托克斯方程(Navier-Stokes equations)」。该方程是克雷数学研究所设立的 7 项千禧年大奖(Millennium Prize Problems)难题之一,解题者可获得 100 万美元奖金。
据介绍,Javier Gómez Serrano 等人发起的这项名为「纳维-斯托克斯行动」的计划已持续 3 年,由 20 人团队执行,始终保持高度保密。不过谷歌 DeepMind 负责人 Demis Hassabis 今年 1 月接受采访时也曾透露,其「即将解决一项千禧年大奖难题」,但未具体说明是哪一项,「明年或一年半内就能见分晓」。
现在,这项神秘行动似乎已经逐渐揭开面纱。
谷歌 DeepMind 联合纽约大学、斯坦福大学、布朗大学等机构的研究人员,基于机器学习框架以及高精度的高斯-牛顿优化器(Gauss-Newton optimizer),在 3 个不同的流体方程中首次系统地发现了新的不稳定奇点,并揭示出一条简洁的经验渐近公式,将爆破速率与不稳定阶数联系起来。
实验结果显示,该方法在所有发现的解上都达到了显著超越既有工作的精度。对于特定的 CCF 解,结果甚至接近双精度浮点的机器极限,仅受限于 GPU 硬件的舍入误差,为探索非线性偏微分方程(PDE)的复杂图景提供了一种全新的研究范式,并为攻克数学物理中的长期难题开辟了新的路径。
相关研究以「Discovery of Unstable Singularities」为题,已在 arXiv 发表预印本。
论文地址:https://go.hyper.ai/iGh6t
发现与分析两阶段结构,找出不稳定奇点回溯人类探索自然规律的历程,流体力学始终是最复杂、最具挑战性的领域之一。几个世纪以来,从飓风旋涡到飞机机翼的升力,数学家们依靠复杂的方程来刻画其中的物理规律。但流体中是否会形成奇点(singularities)或爆破(blow ups),至今仍是数学领域最基础且未解的难题。这一现象指的是,当控制方程(如三维欧拉方程)的解从光滑的初始条件出发时,可能演化出无限梯度。
传统的数值方法主要识别的是稳定奇点,这是一种稳健的结果,即便初始条件有轻微扰动也能形成。与之对应的不稳定奇点则极其难以捕捉,它们要求初始条件必须被调节到无限精确的程度,因为在这种高度不稳定的状态下,哪怕是微小扰动也会立即使解偏离爆破轨迹。然而,对于一些关键的未解问题——如无边界条件的欧拉方程(boundary-free Euler)与纳维–斯托克斯方程(Navier-Stokes cases)——数学界普遍推测,不稳定奇点可能扮演着至关重要的角色。
针对这一百年来悬而未决的难题,研究人员通过解的发现与解的分析这两个阶段,实现高精度不稳定奇点的发现。
首先,研究人员通过一个候选解来搜索具有自相似缩放率 λ 的爆破解及其自相似空间分布,如下图(i)中所示的 Burgers 方程。随后,其通过迭代的方法不断优化机器学习流程与解的精度(下图 ii 所示)。候选解的实证结果及其精度指导数学建模与神经网络架构设计,而数学建模又反过来引导网络架构中的归纳偏置(Inductive Biases),例如输入坐标变换与输出场的形态设计。
在这个过程中,研究人员采用物理信息神经网络(PINN),结合高斯-牛顿优化器(Gauss-Newton optimizer)与多阶段训练(Multi-stage training)策略,在寻找正确缩放率 λ 的同时生成高精度候选解。
高精度自相似解的发现
其次,在解的分析过程中,针对 CCF、IPM 和 Boussinesq 方程发现的每一个不稳定解,研究人员通过在其周围对偏微分方程进行线性化来分析其稳定性。对于发现的第 n 个不稳定解,研究人员找到了 n 个与该解具有相同对称性假设的不稳定模态。
这些不稳定模态指明了通过推动解使其趋于更稳定的方向,这表明目前发现的解族在所考虑的容许 λ 值范围内是完备的。由此,研究人员不仅能够刻画稳定性的程度,同时还发现了高精度的稳定与不稳定奇点。
高精度解的分析
「数学见解 + 神经网络」让 PINN 成为新利器在这项研究中,物理信息神经网络被赋予了新的能量,超越了其作为求解偏微分方程通用工具的典型角色。研究团队将解表示为由神经网络参数化的平滑函数,使数学见解能够直接嵌入神经网络架构中,引导优化过程朝着数学相关的解方向发展。
研究团队通过架构设计来强制执行由控制方程导出的约束,例如对称性、周期性、无限域的处理等,这为学习提供了一个强大的标准训练参数。通过数值实验与数学分析的反馈循环迭代优化网络架构,显式因式化该行为并重写剩余方程,优化稳定性显著提升。
解的准确性
经过改进的高精度训练为了满足不稳定奇点所需的极高精度,研究人员对于训练流程进行了关键的两点改进,引入了「高斯-牛顿优化器」和「多阶段训练」来进行高精度训练。
采用该优化器,其实是由于目前常见的标准梯度优化器(如 Adam 或 L-BFGS)不足以产生方程的高质量解,因此研究团队选择了更强的 Gauss–Newton 优化方法来优化神经网络,由于本次网络规模较小,这种原本不可行方案得以奏效。实验结果表明,Gauss–Newton 可以在大约 50,000 次迭代内将残差降到 10⁻⁸,对比标准梯度优化器表现出更佳的性能和显著更快的收敛速度。
简而言之,多阶段训练的思路是:先训练一个网络得到近似解,再训练第二个网络专门去修正前一个网络没处理好的误差。两个网络的输出合并,就能把解推到更高精度。在 CCF 和 IPM 方程的稳定解及一阶不稳定解实验中,多阶段训练的方法能够将最大残差提高 5 个数量级,该精度足以满足基于 CAP 的严格数学验证。
高精度训练实验结果
上述方法使模型能够将准确率提升到新的水平,研究团队以三维可视化与二维涡量场的分析作为参考示例,展示流体在每个点的旋转程度的度量,其解决的最大误差相当于将地球直径的预测精度提高到几厘米以内。
对所研究的方程之一的三维表示和二维涡度 (Ω) 场进行可视化
论文一作为华人博士论文一作 Yongji Wang,目前是纽约大学库朗数学科学研究所的博士后,同时也是斯坦福大学的访问博士后。其研究方向包括了连续介质力学、地球物理学以及科学机器学习,在运用理论和数值技术阐明自然及环境中的复杂物理过程方面,拥有丰富的经验。
研究重心是针对各类科学问题开发高精度深度学习技术,其研究范围广泛,从揭示南极冰架隐藏的物理特性,到寻找非线性偏微分方程(PDE)的自相似爆破解。
参考资料:
1.https://deepmind.google/discover/blog/discovering-new-solutions-to-century-old-problems-in-fluid-dynamics/
3.https://mp.weixin.qq.com/s/CRlGLmji4BWNkNaA7e2JEw
来源:小丁科技论