谷歌AI团队最近的研究表明,利用机器学习和硬件加速器能够显著提高流体模拟的效率,同时保持高度的准确性和泛化性能。
流体数值模拟在多个领域至关重要,如天气预测、气候研究、空气动力学以及等离子体物理学。尽管纳维-斯托克斯方程能够描述不可压缩流体的行为,但求解这些方程仍然面临计算成本高的挑战。这导致了准确率与计算效率之间的权衡问题。
谷歌AI团队提出了一种新方法,通过深度学习技术改进了计算流体动力学(CFD)中的近似计算。他们利用这种方法来模拟二维涡流,其结果与传统的DNS和LES方法相比,在相同的空间分辨率下,实现了高达40-80倍的计算加速。更重要的是,这种方法在长时间模拟中依然稳定,并且能够推广到不同的力函数和雷诺数,而不像传统的黑盒机器学习方法那样局限于特定情况。
谷歌研究员Stephan Hoyer指出,该研究显示,机器学习加上TPU可以将流体模拟的速度提升两个数量级,同时保持高精度和良好的泛化能力。
研究者展示了几组对比实验,分别在雷诺数Re=1000和Re=4000的不同条件下进行。结果显示,该方法在不同流态下均表现出色,能够精确地模拟湍流行为。
该方法的核心在于通过机器学习技术改进了求解非线性偏微分方程的数值方法。具体来说,他们设计了一个卷积神经网络,用于在较低分辨率的网格上生成隐向量,进而指导求解过程。这种方法使得求解器能够在较低分辨率的情况下达到与高分辨率相同的精度,从而大幅提升了计算效率。
研究者还展示了该方法在大涡模拟(LES)中的应用效果。即使在雷诺数高达100,000的情况下,该方法依然能够实现约40倍的计算加速,同时保持逐点准确性。
此外,研究者还对比了不同机器学习模型的表现,包括ResNet、Encoder Processor-Decoder架构以及此前介绍的Learned Correction模型。结果显示,Learned Interpolation模型表现最佳,其次是Learned Correction模型。
综上所述,这项研究不仅提高了流体模拟的效率,还展示了机器学习在解决复杂物理问题方面的巨大潜力。未来,这种方法有望应用于更广泛的科学和工程领域。