中国科学院数学与系统科学研究院期刊网

2020年, 第42卷, 第3期 刊出日期:2020-08-15
  

  • 全选
    |
    论文
  • 计算数学. 2020, 42(3): 258-259. https://doi.org/10.12286/jssx.2020.3.258
    摘要 ( ) PDF全文 ( )   可视化   收藏
  • 计算数学. 2020, 42(3): 260-260. https://doi.org/10.12286/jssx.2020.3.260
    摘要 ( ) PDF全文 ( )   可视化   收藏
  • 成娟, 舒其望
    计算数学. 2020, 42(3): 261-278. https://doi.org/10.12286/jssx.2020.3.261
    摘要 ( ) PDF全文 ( )   可视化   收藏
    本文对可压缩流体力学高精度拉格朗日格式及其保正性质近年来的发展给出回顾与综述.文中分别介绍了一维、二维可压缩流体力学方程中心型拉格朗日格式的设计步骤,回顾了高精度拉格朗日格式以及高精度保正拉格朗日格式的研究进展.
  • 崔俊芝, 余翌帆
    计算数学. 2020, 42(3): 279-297. https://doi.org/10.12286/jssx.2020.3.279
    摘要 ( ) PDF全文 ( )   可视化   收藏
    针对金属多晶材料构件的分子动力学(MD)模拟,本文提出了一种新的弹-塑性分解方法.文章将MD运动轨迹分解为结构变形和热振动,给出了计算结构变形的方法和近似公式;针对金属多晶材料构件的当前构型,给出了基于FCC|BCC晶胞和四原子占位的四面体单元相组合的连续变形函数及计算变形梯度的算法;利用原子-连续关联模型,发展了计算当前构型应力场和弹性张量的算法.分析了当构件承受过大载荷后在材料内部所产生的微观缺陷,并将其分类标定为位错、层错、挛晶界、晶界和空位等;对于层错和挛晶界讨论了在弹性卸载过程中应满足的刚体运动约束方程;利用极小势能原理构造了基于当前构型的弹性卸载算法,进而给出了完整的基于MD模拟的计算弹-塑性应变的算法.最后,针对单晶铜纳米线拉伸的MD模拟,计算了弹-塑性应变场,验证了本文方法的合理性.
    本文提出的基于MD模拟的弹-塑性分解方法,为从微观到宏观的多尺度和多模型耦合计算提供了算法支撑.
  • 洪庆国, 刘春梅, 许进超
    计算数学. 2020, 42(3): 298-309. https://doi.org/10.12286/jssx.2020.3.298
    摘要 ( ) PDF全文 ( )   可视化   收藏
    针对非线性不可压缩弹性力学问题,本文提出了一种抽象的稳定化方法并将其应用于非线性不可压缩弹性问题上.在该框架中,我们证明了只要连续的混合问题是稳定的,则可以修正任何满足离散inf-sup条件的混合有限元方法使其是稳定的且最优收敛的.我们将这种抽象的稳定化理论框架应用于非线性不可压缩弹性力学问题,给出了稳定性和收敛性理论结论,并通过数值实验验证了该结论.
  • 刘阳, 李金, 胡齐芽, 贾祖朋, 余德浩
    计算数学. 2020, 42(3): 310-348. https://doi.org/10.12286/jssx.2020.3.310
    摘要 ( ) PDF全文 ( )   可视化   收藏
    本文旨在综述我们小组近二十年来在边界元方法这一领域的一些研究成果,在简要介绍边界元方法的基本思想后,主要介绍了一类非线性界面问题的有限元-边界元耦合方法、求解电磁散射问题的有限元-边界元耦合方法和超奇异积分的一类计算方法.
  • 孙琪, 陶蕴哲, 杜强
    计算数学. 2020, 42(3): 349-369. https://doi.org/10.12286/jssx.2020.3.349
    摘要 ( ) PDF全文 ( )   可视化   收藏
    为了有效提高深度学习模型在实际应用场景中的泛化能力,近年来工业界和学术界对神经网络训练阶段所采用的加噪技巧给予了高度关注.当网络模型架构中的待求参数固定时,修正方程的思想可以被用来刻画随机训练策略下数据特征的传播过程,从而看出在恰当位置添加剪枝层后的残差网络等价于随机微分方程的数值离散格式.建立这两者间的对应关系使得我们可以将残差网络的随机训练过程与求解倒向柯尔莫哥洛夫方程的最优控制问题联系起来.该发现不仅使得人们可以从微分方程及其最优控制的角度来研究加噪技巧所带来的正则化效应,同时也为构建可解释性强且有效的随机训练方法提供了科学依据.本文也以二分类问题作为简例来对上述观点做进一步的阐述和说明.
  • 祝爱卿, 金鹏展, 唐贻发
    计算数学. 2020, 42(3): 370-384. https://doi.org/10.12286/jssx.2020.3.370
    摘要 ( ) PDF全文 ( )   可视化   收藏
    HNN是一类基于物理先验学习哈密尔顿系统的神经网络.本文通过误差分析解释使用不同积分器作为超参数对HNN的影响.如果我们把网络目标定义为在任意训练集上损失为零的映射,那么传统的积分器无法保证HNN存在网络目标.我们引进反修正方程,并严格证明基于辛格式的HNN具有网络目标,且它与原哈密尔顿量之差依赖于数值格式的精度.数值实验表明,由辛HNN得到的哈密尔顿系统的相流不能精确保持原哈密尔顿量,但保持网络目标;网络目标在训练集、测试集上的损失远小于原哈密尔顿量的损失;在预测问题上辛HNN较非辛HNN具备更强大的泛化能力和更高的精度.因此,辛格式对于HNN是至关重要的.