网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于深度学习的多参数结构拓扑优化方法  PDF

  • 楚遵康 1
  • 余海燕 1
  • 高泽 1
  • 饶卫雄 2
1. 同济大学 汽车学院,上海 201804; 2. 同济大学 软件学院,上海 201804

中图分类号: U463TP181

最近更新:2024-11-19

DOI:10.11908/j.issn.0253-374x.24775

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

基于有限元的拓扑优化方法,需要多次有限元求解与迭代,由此消耗了大量的计算资源与时间。为提高拓扑优化效率,本文以悬臂梁结构拓扑优化设计为例,引入过滤半径、体积分数、载荷作用点及加载方向4个优化参数,提出了一种基于残差连接的生成式卷积神经网络(CNN)模型,分析了样本数量及损失函数类型对生成式CNN模型精度的影响规律。结果表明:所建立的生成式CNN模型具有较高的精度与泛化能力,模型预测值与有限元仿真结果平均结构相似度可达0.972 0,平均绝对误差为0.014 3。该模型预测耗时仅为有限元法的0.004 1倍,显著提升了结构拓扑优化效率。

拓扑优化是汽车结构轻量化领域的一个重要课题。拓扑优化是结构优化的一种,其目标是在给定设计域内,根据约束条件求解满足设计要求的最优材料分布。相较于其他结构优化方法,如尺寸优化、形状优化,拓扑优化具有更多的设计自由度和更大设计空间。拓扑优化主要有变密度方

1-2、渐进式结构优化方3-4、水平集5等较为成熟的方法,在汽车制造、航空航天等领域有着广泛的应用。但是,主流拓扑优化方法都需要多次迭代计算,需要大量的计算资源。通过缩减有限元方程部分自由6、自适应三级网格划7和多核CPU或GPU的并行计8等方法,固然可以提高拓扑优化收敛速度,但是这些方法仍需要多次有限元迭代计算,而利用机器学习可以跳过多次迭代计算,显著提升拓扑优化效率。

Sosnovik

9等将拓扑优化问题当作图像分割问题,利用U-net神经网络模型,通过有限元法初步迭代的密度分布及梯度值,预测得到最终的拓扑优化密度分布。该方法缩短了拓扑优化迭代次数,但是仍需要借助传统有限元求解器获得初步的拓扑优化结果。Lee10等人提出利用卷积神经网络(CNN)代替固体各向同性材料惩罚(SIMP)模型中计算柔度的过程,训练好的模型可以根据拓扑优化密度分布预测其柔度,同时利用插值可以计算细网格密度分布的柔度。该方法加速了拓扑优化中计算柔度的过程,但该方法仍需要有限元计算、灵敏度分析等。Yan11等人基于有限元法获取第一次迭代的主应力矩阵,利用卷积神经网络通过主应力矩阵预测拓扑优化密度分布,加速了拓扑优化过程。并提出MSD算法作为模型损失函数和评估标准。Wang12等通过有限元法获取初始的位移、应力信息,作为神经网络的输入,神经网络可以根据此输入预测最终拓扑优化结果。Nie13等提出基于深度学习的生成模型TopologyGAN,先通过有限元在未优化的设计域上计算的各种物理场信息,再由生成对抗网络(cGAN)实现拓扑优化结果预测。14等结合深度学习与可移动变形组件法(MMC),提出一种基于深度学习的两阶段拓扑优化方法。第一阶段,神经网络可以根据拓扑优化初始条件得到最优结构中各组件参数;第二阶段以各组件参数为输入,通过MMC拓扑优化代码,形成最终拓扑优化结果。该方法加速了MMC拓扑优化中的组件布局。Qian15等人提出通过对偶神经网络模型(dual-model neural networks)代替有限元中前向计算与灵敏度分析的过程,网络可以根据拓扑优化密度分布情况,较为精确计算出目标函数值和灵敏度,训练好的模型嵌入到拓扑优化框架中,显著加速拓扑优化进程。16等提出跨分辨率的pix2pix神经网络模型,模型可以根据由独立连续映射(ICM)法计算得到的低分辨率拓扑优化密度分布,预测对应的高分辨率拓扑优化结果。

以上文献主要是通过机器学习加速拓扑优化中某一个过程,但是仍依赖于传统有限元求解器。神经网络在拓扑优化中另外一种应用是端到端的学习,其可以根据拓扑优化初始条件,直接得到拓扑优化结果。Abueidda

17等通过ResUnet架构,实现拓扑优化边界条件到拓扑优化结果的映射,并且将该模型推广到非线性弹性算例中。LIN18基于生成对抗网络(GAN)实现热传导拓扑优化预测,该模型根据热源、体积分数等条件,无须迭代即可获取拓扑优化结果。Kollmann19将ResUnet神经网络模型用于超材料拓扑优化设计,模型可以根据边界条件等信息预测超材料最优设计。Yu20等构造低分辨率和高分辨率两种拓扑优化数据集,分别训练卷积神经网络(CNN)和条件生成对抗网络(cGAN)。训练的CNN网络可以由拓扑优化边界条件和体积分数预测拓扑优化结果,训练的cGAN网络可以将CNN预测的低分辨率结果转化为高分辨率的拓扑优化结果。

虽然通过插值、生成对抗网络等方法可以获取细网格拓扑优化结果,但变密度法拓扑优化具有网格依赖性。同样条件下,网格数量对拓扑优化结果影响较大,过滤半径是调整网格依赖

21的重要参数。本文以固定单元数量的2D悬臂梁拓扑优化为例,分析体积分数(volf)、过滤半径(rmin)、载荷作用点及其方向对拓扑优化结果的影响规律,提出基于残差连接的生成式神经网络模型,模型以影响拓扑优化结果的4个参数为输入。基于SIMP方法生成带有标签的拓扑优化数据集,数据集用于模型训练与验证。训练好的生成式CNN模型不需借助有限元求解器,只需给定上述四个参数作为网络输入,即可实时得到对应的拓扑优化结果。

1 变密度法与卷积神经网络

1.1 SIMP模型

变密度法通过引入中间密度单元,将离散型问题转化成连续型优化问题。但是中间密度单元在制造上是不可行的,因此需要插值模型对中间密度进行惩罚。SIMP模型是变密度法常用的插值模型,其如式(1)所示:

Exi=Emin+xipE0-Emin (1)

式中:Exi为插值后的杨氏模量;Emin为空洞部分材料的杨氏模量;E0为实体部分材料的杨氏模量;xi为单元相对密度;p为惩罚因子。本文基于SIMP模型的拓扑优化问题是以最小化柔度(compliance)为目标函数、以体积分数为约束条件的优化问题,其如式(2)所示:

min: cx=UTKU=i=1NxipuiTk0ui
subject to: VxV0=f                 KU=F                    0<xminx1 (2)

式中:cx为结构柔度;K为全局刚度矩阵;U为全局位移;F为载荷向量;k为单元刚度矩阵;ui为单元位移;N为设计域单元数目;Vx为优化后的体积;V0为初始体积;f为体积分数。

1.2 卷积神经网络

近年来,机器学习在图像识别、语音识别、文字处理领域取得了广泛的应用。工程实践中,神经网络在热冲压件力学性能预

22、金属板材塑性本构关系预23等领域有着出色的表现。卷积神经网络是机器学习代表算法之一,其基本结构由卷积层、池化层和激活函数组成。卷积层通过卷积核与输入数据进行卷积运算来构建具有抽象特征的输出。卷积核是一个权值矩阵,具有可学习性。在进行卷积运算时,卷积核会滑动地扫过输入数据,对每个位置上,对局部数据进行线性变换,进而提取特征,生成输出特征图。

CNN具有权值共享、局部连接、多层结构等优点:权值共享能有效降低神经网络的复杂度,减小模型参数数量;局部连接使得模型具有一定空间不变性;多层结构使得神经网络具有很强的表达能力和学习能力。以二维数据为例,输入数据与卷积核之间的卷积运算如图1所示。2×2卷积核对输入数据的局部进行线性运算,得到o11,卷积核按照步长1在输入数据上滑动,得到完整的输出特征图。深度卷积操作增强了CNN模型的表达能力,结合机器学习算法,卷积神经网络构建了输入与输出之间的复杂映射函数,实现了由拓扑优化参数到拓扑优化结果的预测。

图1  基本卷积操作

Fig.1  Typical convolution operation

转置卷积是卷积的一种,它的特点是输出数据的形状比输入数据大。转置卷积是一种常用的上采样方式,相较于其它预定义插值上采样方式,如最近邻插值、双线性插值,转置卷积具有可学习性且上采样效果更好。

2 有限元模型与神经网络架构

2.1 有限元模型

本文以二维平面结构拓扑优化为对象,选取悬臂梁为算例,验证本文所提方法的可行性(其他工况如简支梁、外伸梁等,可以通过相同方法构建数据集,训练神经网络)。设悬臂梁长96 mm、宽32 mm;采用平行四边形单元离散二维连续体,单元大小设为0.5 mm,故x方向上单元数量为192,y方向单元数量64,共12 288个单元,12 545个节点;基本材料参数杨氏模量E=2.1×105 MPa、泊松比ν=0.3。力学的边界条件如图2所示,其中约束悬臂梁左端全部节点x、y方向自由度,考虑到悬臂梁的上下对称性,故仅在右端上半部分(即红框中)选取加载点,加载方向仅在第一、四象限采样,载荷大小为1 kN。

图2  拓扑优化设计域及边界条件

Fig.2  Design domain and boundary conditions of topology optimization

机器学习通常需要大量样本,而通过传统有限元求解器(OptiStruct、Ansys Workbench等)手动获取大量样本费时费力,故本文选取基于SIMP方法的Matlab-88行代

24生成机器学习所需的数据集。在SIMP方法中,影响拓扑优化结果的参数主要有:惩罚因子(penal)、过滤半径(rmin)、体积分数(volf)、载荷作用点及载荷方向。惩罚因子是SIMP法拓扑优化问题中抑制中间密度单元的一个重要参数,保证了优化结果的可制造性,本文取值为3。过滤半径是拓扑优化敏度过滤中的重要参数,它决定了设计变量受周围单元影响的范围。过滤半径越大优化结果越平滑,但会导致边界模糊;其值越小优化结果越精细,但可能出现棋盘格现象。故本文过滤半径取值为2、3或4。体积分数是重要的约束条件,在0.3~0.7范围内均匀采样。加载点在右端上部33个点中依次选取,加载方向在一、四象限均匀采样。拓扑优化参数取值总结如表1所示。数据集样本个数为44 550,其命名为TOPO44550。

表1  拓扑优化参数取值
Tab.1  Details of topology optimization parameters
参数取值范围增量
体积分数 0.3~0.7 0.05
过滤半径 2~4 1
载荷方向 -π/2~π/2 π/50
载荷作用点数 33
惩罚因子 3
设计域 192×64

2.2 网络架构

2.2.1 模型架构设计

残差连接被广泛应用于深度学习模型中,具有缓解梯度消失、提高模型收敛速度与表达能力等优点。其他文献中多采用U-net或以其为基础调整的神经网络模型,U-net是典型的编码器(Encoder)-解码器(Deocder)架构,Encoder负责提取特征,模型输入的图片经过多次下采样,将原始高分辨率图像转化为低分辨率、高语义信息的特征图,Encode再通过多次上采样获得高分辨率的图。受U-net解码器的启发,本文构建基于卷积、转置卷积和残差连接的生成式CNN模型,模型以影响拓扑优化结果的4个参数为输入,生成对应的拓扑结果。相较于U-net的网络架构,本文构建模型舍弃了Decoder的部分,直接将拓扑优化参数输入给神经网络,更符合本文通过拓扑优化参数生成拓扑优化结构的目的。

模型主要有输入层、输出层和中间基本模块组成。如图3所示,输入层由一个全连接层、一个批量规范化

25和一个RuLU激活函数组成。输入数据的格式为(N, 4),N代表批量大小(batch size),4代表4个拓扑优化参数。输入层输出的数据格式为(N, 768),将该数据Reshape成格式为(N, 256, 1, 3)的数据,作为中间基本模块输入。

图3  本文模型基本架构

Fig.3  The architecture of the proposed model

中间基本模块主要有上采样块和残差块组成。上采样块由转置卷积、批量归一化和ReLU激活函数组成。残差连

26通过一个跳跃(skip connect)实现,根据跳跃方式不同,残差块被分为两种:使用1×1卷积核进行连接,可以调整数据通道数,命名为Residual_1;使用恒等映射(identify mapping)连接,不改变数据的格式,命名为Residual_0。综上所述,数据每经过一个基本模块,格式从(N, 2C, H, W)变为(N, C, 2H, 2W)。

输出层由3×3卷积层和Sigmoid激活函数组成,最终输出数据格式为(N, 1, 64, 192)。

2.2.2 损失函数与优化算法

为了更全面衡量图片灰度和结构信息,损失函数采用平均结构相似度(MSSIN)与绝对值误差(L1)的结合。结构相似度(SSIM

27从灰度、对比度、结构3个方面评估图片相似性,其计算公式如式(3)所示:

SSIMx,y=flx,y,cx,y,sx,y (3)

式中: lx,ycx,ysx,y分别代表了亮度、对比度和结构,3个部分相对独立,并且每个都需要满足对称性、有界性和最大值唯一性的条件。

图片中不同区域的均值、方差等信息可能存在明显的差异,所以不能使用全局计算公式去衡量局部的相似性。MSSIM是将整张图片分为M个区域,分别计算每个区域的SSIM,最后计算它们的均值作为全局结构相似度,如式(4)所示:

MSSIMX,Y=1Mj=1MSSIMxj,yj (4)

当且仅当X,Y完全相等时,MSSIMX,Y=1。绝对值误差函数(L1Loss)是机器学习中常用损失函数,它不易受数据集异常值影响,故本文损失函数如式(5)所示,其中α取0.84。

Loss=α×MSSIM Loss+1-α×L1Loss (5)

模型训练采用Adam优化算法,初始学习率(learning rate)为1×10-3,采用动态调整学习率的策略,每训练一定次数,学习率衰减一次。

3 实验设计及结果

3.1 基础实验

本文实验环境为PyTorch 1.13.1+CUDA 11.7。对于TOPO44550数据集,随机选取其中80%样本作为训练集,10%作为验证集,余下10%作为测试集。采用MSSIM和L1Loss组合的损失函数,采用Adam优化算法,初始学习率lr=0.001,每10步学习率衰减0.891 25,第400步学习率为1×10-6。训练共400步,损失函数随迭代步数的变化情况如图4所示。

图4  训练集和验证集上损失函数曲线

Fig.4  Loss curves on the training and validation sets

图4可知,当训练步数为300时,损失函数下降趋于平稳,说明模型基本收敛。其中,第373步模型的精度最高,此时训练集损失函数值为0.031 2,验证集损失函数值为0.025 9。保存第373步的实验模型,并在测试集上计算均方根误差(RMSE)、平均绝对误差(MAE)及平均结构相似度(MSSIM)。如表2所示,测试集上样本MAE的平均值为0.014 3、RMSE的平均值为0.054 0、MSSIM的平均值为0.972 0,说明模型具有较高的精度。

表2  测试集样本的平均精度与误差
Tab.2  The average similarity and error on testing set
指标LossMAERMSEMSSIM
0.025 7 0.014 3 0.054 0 0.972 0

MSSIM表示预测值与有限元值之间的相似程度,当且仅当预测值与有限元值相等时,MSSIM值为1。为了更具体评估模型精度,根据MSSIM精度不同,将测试集预测拓扑结构划分为3类。如表3所示,MSSIM精度大于0.96的部分在整个测试集中占比为81.17%,这部分拓扑结构示例如图5前两个算例所示,模型预测的拓扑结构与有限元拓扑优化所得的结构基本无差别。MSSIM精度介于0.9与0.96的部分占比为14.95%,如图5中间两个算例所示,这部分预测结果与有限元计算值差较小,误差主要分布在细小结构处。MSSIM精度小于0.9的部分占比为3.88%,如图5最后两个算例所示所示,这部分模型预测结构与有限元法相差较大。这主要是因为有限元法生成的样本中,存在部分可制造性较差的结构,但是模型没有受数据集异常值干扰,神经网络预测的拓扑结构相比有限元法结果更加具有可制造性,避免了模糊和细微的结构。这说明,本文基于CNN生成式拓扑优化方法不仅从数据浅层学习边界条件到拓扑结果的映射关系,而且从更深层次学习变密度法拓扑优化的规律,从而对异常数据进行合理的预测。

表3  测试集上不同MSSIM精度的数量及比例
Tab.3  Quantity and proportion of different MSSIM on testing set
精度数量比例/%
[0.96,1.00) 3 616 81.17
[0.90,0.96) 666 14.95
[0.00,0.90) 173 3.88

图5  不同边界条件下神经网络预测结果与有限元结果对比图

Fig.5  Comparison between generative CNN model and FEM under different boundary conditions

图5展示了本文基于CNN生成式拓扑优化方法在不同边界条件下的预测结果与有限元结果的对比,从图中可以看出,模型预测结果与有限元方法的结果具有很高的一致性,对于不同加载点、加载方向、体积分数(volf)和过滤半径(Rmin)神经网络都能做出准确的预测,说明该方法能够有效地捕捉结构的拓扑特征和边界条件之间的关系。

过滤半径是拓扑优化敏度过滤中的重要参数,它决定了设计变量受周围单元影响的范围。过滤半径越小结果越精细,但是可制造性越差;过滤半径越大优化结果越平滑,可制造性越高,但会导致边界模糊。如图6所示,当过滤半径等于2时,模型会生成较为精细的拓扑结构;当过滤半径为4时,模型会生成可制造性好的结构。由此可见,本文所提出神经网络模型可细致地学习到过滤半径对拓扑优化结果的影响规律。

图6  过滤半径对拓扑结构影响规律

Fig.6  The influence of filter radius on the topology structure

综合来讲,本文所构建基于CNN的生成式拓扑优化模型,可以根据不同边界条件实时生成拓扑结构,具有较高的预测精度,且显著提高了拓扑优化效率。表4为基于CNN生成式拓扑优化方法预测时间与有限元法耗时对比,可见本文方法单个样本模型预测时间为0.009 3,是传统有限元方法生成单个样本的时间的0.004 1,效率提升为245.39倍。

表4  本文CNN模型与有限元法消耗时间对比
Tab.4  Time consumption between finite element method and the proposed model
CNN/sFEA/s效率提升/倍
0.009 3 2.282 2 245.39

3.2 样本数量对模型精度的影响

工程实践中获取大量样本较为困难,因此训练样本数对训练精度的影响也是机器学习中需要关注的重点。从TOPO44550数据集随机抽取2%、4%、6%、8%、10%、20%、30%、40%、80%的样本作为训练集,分析样本数量对模型训练精度的影响规律。

图7可知,MSSIM精度随着样本数量的增加而增加。对于本文模型,选用10%(4455个)的训练样本其预测的MSSIN精度可达0.9,此时训练集精度0.900 2,测试集精度0.910 4。当样本数量增加到40%(17 820个)时,训练集精度为0.957 6,测试集精度0.954 8,训练集精度相较于10%的样本情况下提升6.38%。当样本数量增加到80%(35 640个)时,训练集精度为0.963 9,测试集精度0.971 0,相较于40%的样本情况训练集精度提升只有0.66%。可见40%样本之后,增大训练样本对精度的提升有所减小,但是为了训练更优的模型,增加样本量仍然是必要的。

图7  不同训练样本下的MSSIN精度

Fig.7  The MSSIM accuracy under different training sample numbers

3.3 不同损失函数对训练的影响

图像处理领域常用损失函数有均方差损失函数(MSE Loss)、平均绝对误差损失函数(L1Loss)、平均结构相似度(MSSIM)、多尺度结构相似度(MS-SSIM)。本文保持模型架构和数据集不变,分析不同损失函数对模型训练精度的影响规律。

图8所示为采用4种损失函数的模型分别计算得MSSIM精度随迭代次数的变化曲线。由图可以看出:4种损失函数所表现出的收敛速度均较快且趋势一致,其中采用MSSIM+L1Loss组合损失函数的模型精度最高,训练集精度为0.965 9、验证集精度0.971 9;而单独采用L1Loss的模型,其训练集精度为0.960 9、验证集精度0.960 1。由于单独采用L1Loss的模型已经达到较高的精度,故采用MSSIM+L1Loss组合损失函数的模型精度提升略微不明显,验证集精度提升仅为1.21%。对于不同损失函数模型精度都较高,这说明本文建立的生成式CNN模型具有非常好的稳健性。在4种损失函数中,考虑结构的损失函数有助于提高生成式CNN模型预测精度。

(a)  训练集精度

(b)  验证集精度

图8  不同损失函数对MSSIM精度影响

Fig.8  The influence of different loss function on MSSIM accuracy

3.4 泛化实验

经过前述实验对比,可以看到本文所设计生成式CNN模型在给定数据集下具有较高的精度。为了测试本文生成式CNN模型对于其他数据的泛化能力,重新选取2.1节数据集中未出现的加载方向构建泛化测试集。

图9所示,对2.1节的数据集进行设计时,载荷方向为θ=-π2+π50×i,  (i=1,2,,50,新构建的泛化测试集中,载荷方向为方向θ=-π2-π100+π50×i,  (i=1,2,,50。如表5所示,3.1节训练的生成式CNN模型,在泛化测试集上MSSIM精度平均值为0.958 3,MAE误差平均值为0.0179。泛化实验中生成式CNN模型预测如图10所示。由图可以发现,生成式CNN模型具有较高的泛化能力。

(a)  数据集中载荷方向

(b)  泛化测试集中载荷方向

图9  泛化实验载荷方向对比

Fig.9  Comparison of load directions in generalization experiment

表5  泛化实验精度与误差
Tab.5  The average similarity and error of generalization experiment
指标MAERMSEMSSIM
0.017 9 0.074 9 0.958 3

图10  泛化实验模型预测结果对比

Fig.10  Contrasting with finite element method in generalization experiment

4 结论

本文针对固定单元数2D悬臂梁拓扑优化问题,提出基于残差连接的生成式卷积神经网络模型,引入拓扑优化中体积分数、过滤半径、加载点及加载方向四个参数作为生成式CNN模型的输入。分析了样本数目、损失函数对模型精度的影响规律,并测试模型的加载方向的泛化能力。得出如下主要结论:

(1) 生成式CNN模型不需借助有限元求解器,可根据四个拓扑优化参数实时得到拓扑优化结果。模型预测值与有限元仿真结果之间MSSIM精度为0.9720,MAE误差为0.0143。与SIMP法相比,CNN模型加快了2个数量级的拓扑优化速度,其预测时间仅为有限元法的0.0041。生成式CNN模型具有较高精度并且显著提升了拓扑优化效率。

(2) 样本数量对预测精度有显著影响。10%(4455个)的训练样本即可达到0.9以上的MSSIN精度,但当样本比例达到40%(17820)后,增大训练样本对精度的提升效果不再显著。

(3) 生成式CNN模型具有较好稳健性,选取不同损失函数时,模型都具有高精度的表现。四种损失函数中,MSSIM+L1Loss组合损失函数精度最高,其训练集精度为0.965 9;验证集精度为0.971 9,考虑结构的损失函数有助于提高模型预测精度。

(4) 泛化实验结果表明,对于训练数据中从未出现过的50个加载方向,生成式CNN模型的MSSIM精度为0.958 3,MAE误差为0.017 9。模型具有良好的泛化性能。

参考文献

1

BENDSØE M P. Optimal shape design as a material distribution problem[J]. Structural optimization198914): 193. DOI: 10.1007/BF01650949. [百度学术] 

2

丁卯耿达周明东. 基于变密度法的结构强度拓扑优化策略[J]. 上海交通大学学报2021556): 764. DOI: 10.16183/j.cnki.jsjtu.2019.301. [百度学术] 

DING MaoGENG DaZHOU Mingdonget al. Topology optimization strategy of structural strength based on variable density method[J]. Journal of Shanghai Jiao Tong University2021556): 764. DOI: 10.16183/j.cnki.jsjtu.2019.301. [百度学术] 

3

XIE Y MSTEVEN G P. A simple evolutionary procedure for structural optimization[J]. Computers & structures1993495): 885. DOI: 10.1016/0045-7949(93)90035-C. [百度学术] 

4

何健何猛夏凉. 基于双向渐进结构优化法的柔性机构设计[J]. 机械工程学报20215719): 39. DOI: 10.3901/JME.2021.19.004. [百度学术] 

HE JianHE MengXIA Liangat al. Design of compliant actuation mechanisms by evolutionary structural optimization method[J]. Journal of Mechanical Engineering20215719): 39. DOI: 10.3901/JME.2021.19.004. [百度学术] 

5

WANG M YWANG XGUO D. A level set method for structural topology optimization[J]. Computer Methods in Applied Mechanics and Engineering20031921/2): 227. DOI: 10.1016/S0045-7825(02)00559-5. [百度学术] 

6

ZHENG WWANG YZHENG Yet al. Efficient topology optimization based on DOF reduction and convergence acceleration methods[J]. Advances in Engineering Software2020149102890. DOI: 10.1016/j.advengsoft.2020.102890. [百度学术] 

7

WANG YZHENG WZHENG Yet al. A new three-level mesh method to accelerate the structural topology optimization[J]. Applied Mathematical Modelling2022109374. DOI: 10.1016/j.apm.2022.05.012. [百度学术] 

8

MAKSUM YAMIRLI AAMANGELDI Aet al. Computational acceleration of topology optimization using parallel computing and machine learning methods-analysis of research trends[J]. Journal of Industrial Information Integration202228100352. DOI: 10.1016/j.jii.2022.100352. [百度学术] 

9

SOSNOVIK IOSELEDETS I. Neural networks for topology optimization[J]. Russian Journal of Numerical Analysis and Mathematical Modelling2019344): 215. DOI: 10.1515/rnam-2019-0018. [百度学术] 

10

LEE SKIM HLIEU Q Xet al. CNN-based image recognition for topology optimization[J]. Knowledge-Based Systems2020198105887. DOI: 10.1016/j.knosys. 2020.105887. [百度学术] 

11

YAN JZHANG QXU Qet al. Deep learning driven real time topology optimisation based on initial stress learning[J]. Advanced Engineering Informatics202251101472. DOI: 10.1016/j.aei.2021.101472. [百度学术] 

12

WANG DXIANG CPAN Yet al. A deep convolutional neural network for topology optimization with perceptible generalization ability[J]. Engineering Optimization2022546): 973. DOI: 10.1080/0305215X.2021.1902998. [百度学术] 

13

NIE ZLIN TJIANG Het al. Topologygan: topology optimization using generative adversarial networks based on physical fields over the initial domain[J]. Journal of Mechanical Design20211433): 031715. DOI: 10.1115/1.4049533. [百度学术] 

14

孙舒杨程玮斌张浩桢. 基于深度学习的两阶段实时显式拓扑优化方法[J/OL]. 吉林大学学报(工学版)2023. [2023-08-28]. DOI: 10.13229/j.cnki.jdxbgxb20220119. [百度学术] 

SUN ShuyangCHENG WeibinZHANG Haozhenet al. A deep-learning-based two-stage approach for real-time explicit topology optimization[J/OL]. Journal of Jilin University (Engineering and Technology Edition)2023. [2023-08-28]. DOI: 10.13229/j.cnki.jdxbgxb20220119. [百度学术] 

15

QIAN CYE W. Accelerating gradient-based topology optimization design with dual-model artificial neural networks[J]. Structural and Multidisciplinary Optimization2021634): 1687. DOI: 10.1007/s00158-020-02770-6. [百度学术] 

16

叶红玲李继承魏南. 基于深度学习的跨分辨率结构拓扑优化设计方法[J]. 计算力学学报2021384): 430. DOI: 10.7511/jslx20210509403. [百度学术] 

YE HonglingLI JichengWEI Nanat al . Cross-resolution acceleration design for structural topology optimization based on deep learning[J]. Chinese Journal of Computational Mechanics2021384): 430. DOI: 10.7511/jslx20210509403. [百度学术] 

17

ABUEIDDA D WKORIC SSOBH N A. Topology optimization of 2D structures with nonlinearities using deep learning[J]. Computers & Structures2020237106283. DOI: 10.1016/j.compstruc.2020.106283. [百度学术] 

18

LIN QHONG JLIU Zet al. Investigation into the topology optimization for conductive heat transfer based on deep learning approach[J]. International Communications in Heat and Mass Transfer201897103. DOI: 10.1016/j.icheatmasstransfer.2018.07.001. [百度学术] 

19

KOLLMANN H TABUEIDDA D WKORIC Set al. Deep learning for topology optimization of 2D metamaterials[J]. Materials & Design2020196109098. DOI; 10.1016/j.matdes.2020.109098. [百度学术] 

20

YU YHUR TJUNG Jet al. Deep learning for determining a near-optimal topological design without any iteration[J]. Structural and Multidisciplinary Optimization201959787. DOI: 10.1007/s00158-018-2101-5. [百度学术] 

21

王伟张岐良徐颖珊. 基于动态高斯滤波的拓扑优化灵敏度过滤方法[J]. 计算机集成制造系统20222811): 3588-3598. DOI: 10.13196/j.cims.2022.11.021. [百度学术] 

WANG WeiZHANG QiliangXU Yingshan. Topology optimization method based on dynamic Gaussian sensitivity filtering[J]. Computer Integrated Manufacturing Systems20222811): 3588. DOI: 10.13196/j.cims.2022.11.021. [百度学术] 

22

LI YLI S. Deep learning based phase transformation model for the prediction of microstructure and mechanical properties of hot-stamped parts[J]. International Journal of Mechanical Sciences2022220107134. DOI: 10.1016/j.ijmecsci.2022.107134. [百度学术] 

23

冯怡爽何霁韩国丰. 金属板材塑性本构关系的深度学习预测方法及建模[J]. 塑性工程学报2021286): 34. DOI: 10.3969/j.issn.1007-2012.2021.06.005. [百度学术] 

FENG YishuangHE JiHAN Guofenget al. Deep learning predicting method and modeling of plastic constitutive relation of sheet metal[J]. Journal of Plasticity Engineering 2021286): 34. DOI: 10.3969/j.issn.1007-2012.2021.06.005. [百度学术] 

24

ANDREASSEN ECLAUSEN ASCHEVENELS Met al. Efficient topology optimization in MATLAB using 88 lines of code[J]. Structural and Multidisciplinary Optimization2011431): 1. DOI: 10.1007/s00158-010-0594-7. [百度学术] 

25

IOFFE SSZEGEDY C. Batch Normalization: accelerating deep network training by reducing internal covariate shift[C]//International Conference on Machine Learning. Pmlr2015448. https://doi.org/10.48550/arXiv.1502.03167. [百度学术] 

26

HE KZHANG XREN Set al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NVIEEE2016770. DOI: 10.1109/CVPR.2016.90. [百度学术] 

27

ZHOU WBOVIK A CSHEIKH H Ret al. Image quality assessment: from error visibility to structural similarity[J]. IEEE Trans Image Process2004134): 600. DOI: 10.1109/TIP.2003.819861. [百度学术]