«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (6): 115-123  DOI: 10.19678/j.issn.1000-3428.0061885
0

引用本文  

刘子怡, 王宇嘉, 孙福禄, 等. 结合特征扰动与分配策略的集成辅助多目标优化算法[J]. 计算机工程, 2022, 48(6), 115-123. DOI: 10.19678/j.issn.1000-3428.0061885.
LIU Ziyi, WANG Yujia, SUN Fulu, et al. Ensemble-Assisted Multi-Objective Optimization Algorithm Combining Feature Perturbation and Allocation Strategy[J]. Computer Engineering, 2022, 48(6), 115-123. DOI: 10.19678/j.issn.1000-3428.0061885.

基金项目

国家自然科学基金(61403249)

作者简介

刘子怡(1998—),女,硕士研究生,主研方向为进化计算、多目标优化;
王宇嘉,副教授、博士;
孙福禄,硕士研究生;
贾欣,硕士研究生;
聂方鑫,硕士研究生

文章历史

收稿日期:2021-06-09
修回日期:2021-07-19
结合特征扰动与分配策略的集成辅助多目标优化算法
刘子怡 , 王宇嘉 , 孙福禄 , 贾欣 , 聂方鑫     
上海工程技术大学 电子电气工程学院, 上海 201620
摘要:代理模型利用近似预测代替算法对多目标优化问题的真实评价,大幅减少了算法寻优所需的真实适应度评估次数。为提高代理模型在求解高维问题时的准确性并降低计算开销,提出一种基于特征扰动与分配策略的集成辅助多目标优化算法。将径向基函数网络代理模型与支持向量机回归代理模型作为集成过程中的基模型,降低算法在高维问题上的计算开销。结合特征扰动与基于记忆的影响因子分配策略构建集成代理模型,提高集成准确性。使用集成预测值与不确定信息加权辅助管理集成代理模型,平衡全局搜索与局部探索,增强算法在目标空间中的寻优能力。实验结果表明,该算法在ZDT1~ZDT3和ZDT6测试问题上所得解集的分布性与收敛性相比经典算法更好,并且当决策变量维数增加时,使用集成代理模型相比于Kriging代理模型约减少了90%的适应度评估次数,同时可获得更准确的预测结果。
关键词集成代理模型    多目标优化    特征扰动    历史记忆    不确定信息    
Ensemble-Assisted Multi-Objective Optimization Algorithm Combining Feature Perturbation and Allocation Strategy
LIU Ziyi , WANG Yujia , SUN Fulu , JIA Xin , NIE Fangxin     
School of Electronic and Electrical Engineering, Shanghai University of Engineering Science, Shanghai 201620, China
Abstract: A surrogate model can use its approximate prediction to replace the real evaluation of an algorithm when applied to the multi-objective optimization problem, which greatly reduces the number of real fitness evaluations required by the multi-objective optimization algorithm for determining the optimal optimization algorithm.To improve the accuracy of the surrogate model under high-dimensional problems and reduce its computational overhead, this study proposes an ensemble-assisted multi-objective optimization algorithm based on feature perturbation and allocation strategy.First, the algorithm uses a Radial Basis Function Network(RBFN) and a Support Vector Regression(SVR) surrogate model as the basis model during the integration, which reduces the computational cost of the algorithm on high-dimensional problems.Second, the algorithm combines feature disturbance and memory-based influence factor allocation strategies to construct an integrated surrogate model and improve the accuracy of the integration.Finally, the algorithm uses the integrated prediction value and the weighted uncertainty information to assist in the management of the integrated surrogate model, balance the global search and local exploration, and enhance the optimization capability of the algorithm within the target space.The experimental results show that the distribution and convergence of the solution set obtained by this algorithm on the ZDT1~ZDT3 and ZDT6 test problems are better than those of a classical algorithm.In addition, when the number of dimensions of the decision variables increases, the ensemble surrogate model used by the algorithm reduces the number of fitness evaluations by approximately 90% in comparison with the Kriging surrogate model, and at the same time can obtain more accurate prediction results.
Key words: ensemble surrogate model    multi-objective optimization    feature disturbance    historical memory    uncertain information    

开放科学(资源服务)标志码(OSID):

0 概述

在科学研究及工程应用中存在很多多目标优化问题(Multi-objective Optimization Problem,MOP)[1-2],且这些优化问题呈现出规模越来越大、复杂性越来越高的特征。进化算法是一种模拟自然进化过程的随机优化算法,采用群体搜索策略,无需分析目标函数或约束,单次运行即可获得一组非主导的解,适用于求解多目标优化问题[3]。但是多数多目标进化算法通常需要上万次适应度评估才能得到令人满意的解[4],比如进气通风系统设计问题需要计算流体动力学模拟来优化目标,一次适应度评估就需数小时,整体评估则需耗费几小时甚至几天[5],因此此类多目标优化问题通常被称为昂贵多目标优化问题[6]

近年来,针对昂贵多目标优化问题,CHUGH等[7]提出一种采用代理模型替代部分昂贵评估的方法,能够有效解决计算开销大的问题。还有一些研究人员分别将径向基函数网络(Radial Basis Function Network,RBFN)[8]、支持向量回归(Support Vector Regression,SVR)[9]、Kriging[10]和人工神经网络(Artificial Neural Network,ANN)[11]用于求解非线性问题。LI等[12]结合自我改进的新预筛选策略提出一种RBF辅助的多种群协同进化算法。LIU等[13]提出一种置信下界辅助的差分进化算法,该算法在优化过程中使用Kriging代理模型在候选后代粒子群中筛选粒子。TIAN等[14]提出一种高斯过程(Gaussian Process,GP)辅助的进化算法,该算法采用多目标填充准则的方式选择真实适应度评估的个体。然而,随着决策变量维数的增加,构建Kriging代理模型的计算成本成指数级增加,且单一代理模型只能解决少数问题,评估精度与多样性较差。

为提高代理模型的质量与多样性:GOEL等[15]提出一种结合多个代理模型的模型集成方法,在集成过程中个体的准确性与多样性达到适当平衡时,可提供比单个模型更高的预测准确率;TANG等[16]提出一种基于二次多项式模型和RBFN组成的混合全局代理模型的代理辅助进化算法;WANG等[17]使用Kriging、PR和RBFN不同代理模型集成了全局与局部模型,强化算法搜索性能并辅助低维优化;HABIB等[18]使用Kriging、RBFN和两种不同功能的RSM代理模型对每个目标进行近似,并在昂贵多目标优化问题上进行了验证;ROSALES-PÉREZ等[19]结合模型选择策略确定SVR超参数,集成一组SVR代理模型解决多目标优化问题。值得注意的是,在模型管理中采样不确定的个体可有效地提高模型质量,并促进搜索空间中潜在有前途区域的探索[17]。Kriging代理模型可为每个解提供近似的不确定信息,还能通过集合成员输出之间的方差提供不确定信息,但以上有关集成代理模型方面的研究专注于提高集成的近似评估准确性,忽略了集成过程中的不确定信息[15]

为利用不确定信息构造准确性较高的代理模型,本文提出一种基于扰动与记忆的集成辅助多目标优化(Ensemble-Assisted Multi-objective Optimization based on Disturbance and Memory,EAMO-DM)算法。该算法对训练集进行特征扰动产生新数据集并共同训练RBFN和SVR代理模型,生成多样性强且准确性高的集成代理模型,在适应度评估次数有限的情况下找到较好解,同时在模型管理中通过考虑不确定信息以更好地平衡种群多样性与收敛性。

1 相关技术 1.1 多目标优化

多目标优化函数表示如下:

$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}\ F\left(\mathit{\boldsymbol{x}}\right)\ =\left\{{f}_{1}\right(\mathit{\boldsymbol{x}}), {f}_{2}(\mathit{\boldsymbol{x}}), \cdots, {f}_{M}(\mathit{\boldsymbol{x}}\left)\right\}\\ \mathrm{s}.\mathrm{t}.\ \mathit{\boldsymbol{x}}\in \mathit{\Omega} \end{array} $ (1)

其中:$ \mathit{\boldsymbol{x}}=({x}_{1}, {x}_{2}, \cdots, {x}_{D}) $为决策变量,$ D $为决策变量维数;$ M $为目标数量;$ \mathit{\Omega} $为可行的决策空间;$ {\mathbb{R}}^{M} $为目标空间。由于多个目标彼此冲突,因此通常存在一组最佳折衷解决方案。在目标空间中,由最佳折衷解(称为Pareto最优解)形成的图像称为Pareto前沿(Pareto Front,PF),$ D $中相应的解构成的集合称为Pareto最优集。

1.2 代理模型

RBFN代理模型在代理辅助进化算法中具有较强拟合能力,可用于构建局部或全局代理模型,建模计算成本低,问题维度的增加对其拟合效果影响较小[8]。RBFN是具有单个隐藏层的前馈神经网络,结构由输入层、隐含层和输出层组成。给定$ i $个训练样本$ {\mathit{\boldsymbol{x}}}_{i}=\{{x}_{i, 1}, {x}_{i, 2}, \cdots, {x}_{i, n}\} $,RBFN代理模型表示如下:

$ {\widehat{f}}_{\mathrm{r}}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{N}{\tau }_{i}\varphi \left(\right||{\mathit{\boldsymbol{x}}}_{i}-{\mathit{\boldsymbol{c}}}_{i}|\left|\right) $ (2)

其中:$ \mathit{\boldsymbol{\tau }}=\{{\tau }_{1}, {\tau }_{2}, \cdots, {\tau }_{n}\} $为RBFN输出权重;$ \left|\right|\cdot \left|\right| $表示样本$ \mathit{\boldsymbol{x}} $与RBFN函数中心$ {\mathit{\boldsymbol{c}}}_{i} $的欧氏距离;$ \varphi (\cdot) $为径向基核函数。常用的核函数有高斯、线性、多重二次曲面和立方等核函数[20]

SVR代理模型是一种基于支持向量机的机器学习模型,计算成本低且泛化能力好,对小样本问题也有较好的拟合能力[9]。给定$ i $个训练样本$ {\mathit{\boldsymbol{x}}}_{i}=\{{x}_{i, 1}, {x}_{i, 2}, \cdots, {x}_{i, n}\} $,SVR问题可看作如下优化问题:

$ {\widehat{f}}_{\mathrm{s}}\left(\mathit{\boldsymbol{x}}\right)={\mathit{\boldsymbol{\omega }}}^{\mathrm{T}}\varphi \left(\mathit{\boldsymbol{x}}\right)+b $ (3)

其中:$ \mathit{\boldsymbol{\omega }} $为超平面法向量;$ b $为偏置项。SVR的优化目标为最小化训练样本与不敏感损失函数$ \varepsilon $之间的误差,获得最优超平面,使预测偏差最小化[9],具体如下:

$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}\frac{1}{2}\sum\limits_{i, j=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})({\alpha }_{j}^{\mathrm{*}}-{\alpha }_{j})K({h}_{i}, {h}_{j})+\\ \varepsilon \sum\limits_{i=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})-\sum\limits_{i=1}^{n}{y}_{i}({\alpha }_{i}^{*}-{\alpha }_{i})\\ \mathrm{s}.\mathrm{t}.\ \sum\limits_{i}^{n}({\alpha }_{i}^{\mathrm{*}}+{\alpha }_{i})=0;0\le {\alpha }_{i}^{\mathrm{*}}, {\alpha }_{i}\le \frac{C}{n}\end{array} $ (4)

其中:$ \alpha $$ {\alpha }^{\mathrm{*}} $为拉格朗日乘子;$ C $为惩罚参数,即超出$ \varepsilon $的程度;$ K({h}_{i}, {h}_{j}) $为核函数。SVR代理模型表示如下:

$ {\widehat{f}}_{\mathrm{s}}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})K({h}_{i}, {h}_{j})+b $ (5)
1.3 粒子群优化算法

粒子群优化(Particle Swarm Optimization,PSO)算法是一种基于鸟群的群智能优化算法[21]。在PSO中,搜索空间上的一个粒子为一个潜在解,每个粒子的速度决定其飞行方向和位置,所有粒子跟随当前最优粒子在解空间中搜索,每个粒子的速度和位置计算如下:

$ {v}_{i}^{t+1}=w{v}_{i}^{t}+{c}_{1}{r}_{1}({x}_{\mathrm{p}\mathrm{b}, i}^{t}-{x}_{i}^{t})+{c}_{2}{r}_{2}({x}_{\mathrm{g}\mathrm{b}, i}^{t}-{x}_{i}^{t}) $ (6)
$ {x}_{i}^{t+1}={x}_{i}^{t}+{v}_{i}^{t+1} $ (7)

其中:$ {v}_{i}^{t} $$ {x}_{i}^{t} $为第$ t $代的第$ i $个粒子的速度和位置;$ {x}_{\mathrm{p}\mathrm{b}, i}^{t} $$ {x}_{\mathrm{g}\mathrm{b}, i}^{t} $为第t代的第i个粒子的个体最优和全局最优粒子;$ w $为权值;$ {c}_{1} $$ {c}_{2} $为学习因子;$ {r}_{1} $$ {r}_{2} $为(0,1)内的随机数。

2 基于扰动与记忆的集成辅助多目标优化算法 2.1 基于扰动与记忆的集成代理模型构建

机器学习相关理论证明集成模型中个体的准确性与多样性达到适当平衡时,可以提供比单个模型更精准的预测结果[22]。因此,本文对数据样本引入特征扰动,使模型间样本数据不同,以提升集成个体间的多样性,在模型融合过程中加入基于记忆的影响因子分配策略,以提高集成的准确性。

2.1.1 特征扰动

采用主成分分析(Principal Component Analysis,PCA)[23]对种群引入特征扰动,生成全新的样本集。PCA是机器学习中广泛使用的数据处理方法,计算成本低、简单易行,主要思想是在减少数据集维数的同时保留最主要的特征,具体步骤如下:

1)给定初始样本集$ \mathit{\boldsymbol{X}}=\{{\mathit{\boldsymbol{x}}}_{1}, {\mathit{\boldsymbol{x}}}_{2}, \cdots, {\mathit{\boldsymbol{x}}}_{i}\} $,设新生成的样本集$ \mathit{\boldsymbol{Z}}=\{{\mathit{\boldsymbol{z}}}_{1}, {\mathit{\boldsymbol{z}}}_{2}, \cdots, {\mathit{\boldsymbol{z}}}_{i}\} $,对$ i $个样本组成的矩阵$ \mathit{\boldsymbol{X}} $进行零均值化处理,得到样本协方差矩阵:

$ \mathit{\boldsymbol{C}}=({\mathit{\boldsymbol{x}}}_{i}-\stackrel{-}{\mathit{\boldsymbol{X}}})({\mathit{\boldsymbol{x}}}_{i}{-\stackrel{-}{\mathit{\boldsymbol{X}}})}^{\mathrm{T}}=\mathit{\boldsymbol{X}}{\mathit{\boldsymbol{X}}}^{\mathrm{T}} $ (8)

其中:$ \stackrel{-}{\mathit{\boldsymbol{X}}} $为样本均值。

2)对$ \mathit{\boldsymbol{X}}{\mathit{\boldsymbol{X}}}^{\mathrm{T}} $进行特征值分解,求得对应特征值降序排列,并取前$ l $行构成降维后目标矩阵$ \mathit{\boldsymbol{G}}=({g}_{1}, {g}_{2}, \ \cdots, {g}_{l}) $,则新生成的样本可表示如下:

$ {\mathit{\boldsymbol{z}}}_{i}={\mathit{\boldsymbol{G}}}^{\mathrm{T}}{\mathit{\boldsymbol{x}}}_{i} $ (9)

3)在使用PCA对种群进行处理后,得到一组新训练数据,两组数据共同用于训练不同模型。

2.1.2 基于记忆的影响因子分配策略

集成模型中的融合策略用于平衡不同基模型的输出,削弱不完美模型的影响,确保代理预测精度[15]。为提高集成预测的精确度,结合集成模型中各代理的预测输出值,提出一种基于记忆的影响因子分配策略,具体定义如下:

$ {f}^{'}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{{N}_{\mathrm{s}}}{I}_{i}{f}_{i}^{'}\left(\mathit{\boldsymbol{x}}\right) $ (10)

其中:$ {f}^{'}\left(\mathit{\boldsymbol{x}}\right) $为集成对粒子$ \mathit{\boldsymbol{x}} $进行近似适应度评估的结果;$ {N}_{\mathrm{s}} $为集成中的基代理个数;$ {f}_{i}^{'}\left(\mathit{\boldsymbol{x}}\right) $为集成中第$ i $个代理的预测结果;$ {I}_{i} $$ {f}_{i}^{'}\left(\mathit{\boldsymbol{x}}\right) $的影响因子。$ {I}_{i} $定义如下:

$ {I}_{i}=\frac{\sum\limits_{j=1, j\ne i}^{{N}_{\mathrm{s}}}{\stackrel{-}{e}}_{i}}{({N}_{\mathrm{s}}-1)\sum\limits_{j=1}^{{N}_{\mathrm{s}}}{\stackrel{-}{e}}_{i}}, \sum\limits_{i=1}^{{N}_{s}}{I}_{i}=1 $ (11)
$ {H}_{i}=\left\{{e}_{i}^{t-(\xi -1)}, {e}_{i}^{t-(\xi -2)}, \cdots, {e}_{i}^{t}\right\} $ (12)

其中:$ {\stackrel{-}{e}}_{i} $为第$ i $个代理的$ {H}_{i} $中均方根误差(Root Mean Square Error,RMSE)的均值;$ {H}_{i} $为本文构建的历史记忆存储器,存储各代理近$ \xi $次迭代的均方根误差[17]

基于记忆的影响因子分配策略的具体步骤如下:

1)更新$ {H}_{i} $。当$ t\le \xi $时,只执行存入操作;当$ t > \xi $时,则执行存入与淘汰操作。

2)根据式(12)求取$ {H}_{i} $内存储的RMSE的均值$ {\stackrel{-}{e}}_{i} $

3)根据式(11)结合$ {\stackrel{-}{e}}_{i} $对集成中各代理的影响因子进行分配。

本文在对基模型预测结果进行融合的过程中加入基于记忆的影响因子分配策略,误差小的代理模型被分配的权重大,有效避免了代理模型在采样数据点处表现良好但在未勘探区域表现较差而引起的误差,保证了集成稳定性,提高了算法准确性。

2.1.3 集成代理模型构建

结合特征扰动与分配策略的集成代理模型构建如图 1所示。

Download:
图 1 EAMO-DM算法中集成代理模型的构建 Fig. 1 Construction of ensemble surrogate model in EAMO-DM algorithm

在集成过程中的基模型选用RBFN代理和SVR代理,其中:RBFN模型建模计算成本低,非线性拟合能力强,在高维搜索空间也有很好表现;SVR模型在小样本问题上占据优势,模型简单并且在中低维搜索空间表现出良好的泛化能力。因此,在集成代理模型构建过程中,将特征扰动及影响因子分配策略分别应用于模型训练和模型融合,结合RBFN模型与SVR模型的优势,提高了集成预测的准确性,更好地逼近不同形态的Pareto前沿并具有高维可拓展性。集成代理模型构建步骤具体如下:

1)使用特征扰动方式对训练集$ S $进行处理得到新训练集$ {S}^{'} $

2)使用经过处理的数据集和初始数据集训练RBFN和SVR代理模型。

3)结合影响因子分配策略将两代理模型组合成集成代理模型。

4)输出集成预测结果。

2.2 基于不确定信息的加点准则

通过增加采样点可提高模型准确性,但这一过程因其随机性浪费了计算资源。为提升模型精度同时节约计算成本,采用基于不确定信息的加点准则,用于选择个体进行昂贵适应度评估,并将其加入训练集更新模型。在EAMO-DM算法中,训练集$ S $中的数据用于构建集成,并通过以下策略管理训练集$ S $:采用Kriging辅助进化算法中广泛使用的置信下界准则[13]将最小LCB值作为目标,选择最优的个体进行昂贵适应度评估,并放入训练集$ S $中更新集成代理。LCB评价函数表示如下:

$ {f}_{\mathrm{L}}\left(\mathit{\boldsymbol{x}}\right)=\widehat{f}\left(\mathit{\boldsymbol{x}}\right)-\mu \widehat{s}\left(\mathit{\boldsymbol{x}}\right) $ (13)

其中:$ \widehat{f}\left(\mathit{\boldsymbol{x}}\right) $为粒子的集成代理预测值;$ \widehat{s}\left(\mathit{\boldsymbol{x}}\right) $为集成中两个代理之间预测值的方差;$ \mu $为常量。可以看出,式(13)将集成预测值与预测方差进行线性加权处理的结果用于评价粒子,前者强调全局搜索、后者强调局部探索,借此辅助算法更快收敛。

2.3 算法步骤

EAMO-DM算法的具体步骤如下:

1)使用拉丁超立方设计方法,采样种群规模为$ N $的初始种群,以保证初始种群均匀分布。使用真实函数评估样本点(即计算其对应目标函数值),将非支配解存入外部档案$ A $,更新训练集$ S $

2)初始化种群中粒子的速度和位置。

3)进入循环,用$ S $$ {S}^{'} $中的样本点作为训练数据,针对各目标函数构建集成代理模型。

4)使用多目标粒子群优化算法进行种群更新,利用集成代理对各粒子进行近似适应度评估,筛选用于真实函数评估的个体,评估后放入训练集$ S $更新集成代理。

5)更新各粒子的个体极值、全局极值以及外部档案$ A $,输出Pareto最优解集。

在EAMO-DM算法运行过程中,训练集$ S $存放真实函数评估的所有个体,并作为构建或更新集成代理的训练数据集。

算法1  EAMO-DM算法

输入  最大适应度评估次数$ {F}_{\mathrm{m}\mathrm{a}\mathrm{x}} $,种群规模$ N $

输出  Pareto最优解集

1.用拉丁超立方采样生成初始样本点,用真实函数评估样本点并更新外部档案$ \mathrm{A} $和训练集$ \mathrm{S} $

2.初始化种群中粒子的位置及速度

3.while $ \mathrm{F}\le {\mathrm{F}}_{\mathrm{m}\mathrm{a}\mathrm{x}} $

4.用训练集$ \mathrm{S} $$ {\mathrm{S}}^{'} $更新各目标函数的集成代理模型

5.根据式(6)和式(7)更新各粒子的速度和位置,并使用集成代理模型对各粒子进行近似适应度评估

6.筛选用于真实函数评估的粒子,评估后存入训练集$ \mathrm{S} $

7.更新各粒子的个体极值、全局极值以及外部档案$ \mathrm{A} $

8.end while

2.4 算法复杂度分析

EAMO-DM算法的计算复杂度$ T $由真实适应度评估次数$ F $、构建集成代理模型$ {T}_{\mathrm{E}} $以及其他额外成本$ {T}_{\mathrm{o}\mathrm{t}\mathrm{h}\mathrm{e}\mathrm{r}} $的计算时间确定,具体公式如下:

$ T=\gamma F+{T}_{\mathrm{E}}+{T}_{\mathrm{o}\mathrm{t}\mathrm{h}\mathrm{e}\mathrm{r}} $ (14)

其中:$ \gamma $为适应度评估系数。在构建集成模型的过程中,通过特征扰动处理训练样本的计算复杂度为$ O\left(\lambda M\right) $,对各代理进行影响因子分配时的计算复杂度为$ O\left(\lambda M\right) $,训练RBFN代理与SVR代理的计算复杂度均为$ O\left({\lambda }^{2}M\right) $$ \lambda $为构建代理模型的样本数量,在产生新种群以及选取真实评估粒子过程中的计算复杂度为$ O\left(NM\right) $$ N $为初始种群规模。因此,EAMO-DM算法的计算复杂度为$ O\left({\lambda }^{2}M\right)+O\left(\gamma F\right) $。对于昂贵多目标优化问题,真实适应度评估相当耗时,构建模型所需的时间可忽略不计。

3 实验设计与结果分析

将ZDT系列测试函数作为多目标优化测试问题,如表 1所示。在EAMO-DM算法框架中,使用SMPSO[24]作为多目标粒子群优化算法,称为EA-SMPSO;将EA-SMPSO算法框架中的集成代理模型替换成单个Kriging模型,称为K-SMPSO;将EAMO-DM算法与SMPSO[24]结合,称为EA-SMPSO;将单个Kriging模型与SMPSO结合,称为K-SMPSO。使用EA-SMPSO与SMPSO、NSGAII[25]、MOEA/D[26]以及K-SMPSO进行实验对比。

下载CSV 表 1 多目标优化测试问题设置 Table 1 Setting of multi-objective optimization test problems
3.1 参数设置与性能指标 3.1.1 参数设置

为保证公平性,每种算法进行20次独立实验,评估次数设为1 000。对于每个测试问题,目标数量$ M $为2,种群规模为50;对ZDT1~ZDT3测试问题,决策变量维数$ D $为5、10、20;由于ZDT4及ZDT6默认决策变量维数有限,决策变量维数$ D $为10。按照文献[27],将式(12)中参数$ \xi $设为5、式(13)中参数$ \mu $设为2。值得注意的是,EA-SMPSO与K-SMPSO使用相同的模型管理策略。

3.1.2 性能指标

选用GD、SP、IGD 3个指标定量评价算法性能:

1)GD指标通过计算真实Pareto前沿$ {P}_{\mathrm{P}{\mathrm{F}}_{\mathrm{t}\mathrm{r}\mathrm{u}\mathrm{e}}} $与算法搜索得到的近似Pareto前沿P间的距离评估算法收敛性,计算公式如下:

$ {G}_{\mathrm{G}\mathrm{D}}=\frac{{\left(\sum\limits_{i=1}^{N}{d}_{\mathrm{i}\mathrm{s}}^{2}\right)}^{\frac{1}{2}}}{\psi } $ (15)

其中:$ \psi $P中解的数目;$ {d}_{\mathrm{i}\mathrm{s}}^{} $P中个体函数值与$ {P}_{\mathrm{P}{\mathrm{F}}_{\mathrm{t}\mathrm{r}\mathrm{u}\mathrm{e}}} $中最近个体之间的欧氏距离。GD越小,解集收敛性越好。

2)SP指标用于评价算法多样性,其值由最邻近距离的方差表示,计算公式如下:

$ {S}_{\mathrm{S}\mathrm{P}}=\sqrt{\frac{\sum\limits_{i\in {P}_{\mathrm{P}{\mathrm{F}}_{a}}({d}_{i}-\stackrel{-}{d})}{k}^{2}}{\left|P\right|}} $ (16)

其中:$ {d}_{i}^{} $是解集中两相邻个体的欧氏距离;$ \stackrel{-}{d} $$ {d}_{i}^{} $的均值。SP越小,解集分布性越好。

3)IGD指标可用于综合评价解集的综合性能,即收敛性和多样性,计算公式如下:

$ {I}_{\mathrm{I}\mathrm{G}\mathrm{D}}=\frac{\left(\sum\limits_{i=1}^{n}{\stackrel{-}{d}}_{i}\right)}{\psi } $ (17)

其中:$ {\stackrel{-}{d}}_{i} $P中个体与$ {P}_{\mathrm{P}{\mathrm{F}}_{\mathrm{t}\mathrm{r}\mathrm{u}\mathrm{e}}} $中最近个体之间的欧氏距离。IGD越小,解集综合性能越好。

3.2 实验结果对比分析

实验从性能指标、Pareto前沿逼近效果以及算法运行时间三方面对比EA-SMPSO与K-SMPSO、NSGAII、SMPSO及MOEA/D在求解ZDT系列测试问题上的性能表现。

3.2.1 性能指标对比分析

经实验得到各种算法GD、SP、IGD指标平均值与标准差,如表 2~表 4所示,其中最优结果加粗显示。

下载CSV 表 2 5种算法GD性能指标的平均值和标准差 Table 2 Average and standard deviation of GD performance indicators of 5 algorithms
下载CSV 表 3 5种算法SP性能指标的平均值和标准差 Table 3 Average and standard deviation of SP performance indicators of 5 algorithms
下载CSV 表 4 5种算法IGD性能指标的平均值和标准差 Table 4 Average and standard deviation of IGD performance indicators of 5 algorithms

表 2~表 4可以看出:

1)在决策变量维数为5的ZDT1、ZDT2测试问题上,EA-SMPSO与单个Kriging辅助的K-SMPSO相比,GD值稍差(在ZDT2测试问题上相差不到0.01);在决策变量维数为10的复杂ZDT3、ZDT4测试问题及不均匀的ZDT6测试问题上,EA-SMPSO的GD值比K-SMPSO更好;在决策变量维数为20的ZDT测试问题上,EA-SMPSO在各指标上优势明显。这是算法使用不同的代理模型所致,Kriging代理模型能对低维非线性问题进行更精确的拟合,RBF与SVR代理模型更擅长处理高维小样本问题。

2)在ZDT1~ZDT3测试问题上,随着决策变量维数的增加,EA-SMPSO的SP值较K-SMPSO优势更明显。这表明EAMO-DM算法的多样性更好,同时探索能力更好,并且验证了Kriging模型在高维问题上存在对于不确定信息估计不准确的问题[13],导致算法勘探能力下降。

3)对于不同决策变量维数下的ZDT测试问题,EA-SMPSO相比于没有代理辅助的SMPSO、NSGAII及MOEA/D,在ZDT1~ZDT3测试问题上各指标均更具优势,但在ZDT4测试问题上GD值与SP值稍逊于SMPS与MOEA/D,这是由于ZDT4测试问题有多个局部Pareto前沿,多模态特征使得其用集成代理难以近似。

可见,EA-SMPSO相比于K-SMPSO、NSGAII、SMPSO及MOEA/D搜索所得解集的收敛性与分布性更好,综合优势明显。

为进一步分析多目标优化算法的有效性,以ZDT1~ZDT3测试问题为例,给出EA-SMPSO、K-SMPSO、SMPSO的IGD指标变化趋势,如图 2所示。从图 2可以看出:SMPSO、K-SMPSO与EA-SMPSO的IGD值都随评估次数增加较为平稳下降。虽然K-SMPSO与EA-SMPSO均能收敛到较好指标,但集成代理辅助条件下指标下降更快,因为EA-SMPSO比单个Kriging代理更为精确,能更快地搜索到更好的解,同时验证了集成代理提供的不确定信息的有效性。另外,对于相同IGD指标,EA-SMPSO与SMPSO相比,使用集成代理的EA-SMPSO约减少90%的评估次数,这对于昂贵多目标优化问题具有重要意义。

Download:
图 2 EA-SMPSO、K-SMPSO和SMPSO算法求解ZDT1~ZDT3测试问题时的IGD指标变化趋势 Fig. 2 Variation trend of IGD when EA-SMPSO, K-SMPSO and SMPSO algorithms solve ZDT1~ZDT3 test questions
3.2.2 近似Pareto前沿对比分析

图 3给出了各算法在求解ZDT系列测试问题时获得的近似Pareto前沿,其中f1f2代表ZDT系列测试问题中的2个目标函数值,彩色效果见《计算机工程》官网HTML版。由图 3可以看出,EA-SMPSO在ZDT1~ZDT3以及ZDT6上逼近效果最好,具有较好的收敛性以及分布性。值得注意的是,ZDT4是一个具有复杂多模态的测试函数,使用集成模型或者Kriging模型辅助的SMPSO近似Pareto前沿的效果稍弱于SMPSO本身,但对于昂贵多目标优化问题重要的是使用更少评估次数获得更好的解。在ZDT4测试问题上:MOEA/D与NSGAII都无法很好地逼近Pareto前沿,因此不适合昂贵多目标优化问题;EA-SMPSO相比于K-SMPSO在Pareto前沿上找到了更多的解,说明集成代理模型相对Kriging模型在复杂多模态问题上更具优势。

Download:
图 3 5种算法求解具有10个决策变量维数的ZDT1~ZDT4和ZDT6测试问题时获得的近似Pareto前沿 Fig. 3 Pareto front of 5 algorithms solve the ZDT1~ZDT4 and ZDT6 test questions with 10 decision variable dimensions
3.2.3 算法运行时间对比分析

为进一步分析本文提出的集成代理模型较单个Kriging模型在昂贵多目标优化问题上的优势,对具有5、10、20个决策变量维度的ZDT系列测试问题使用EA-SMPSO与K-SMPSO分别进行求解,记录其所需的运行时间。如图 4所示,随着决策变量维度的增加,K-SMPSO需增加采样点保证Kriging模型的精度,计算成本呈指数增加,因此K-SMPSO相比于EA-SMPSO的运行时间增长更快,而EA-SMPSO可使用一组数据构建更为精确的集成模型,加快了寻优速度,节约了计算成本。

Download:
图 4 EA-SMPSO算法和K-SMPSO算法求解具有5、10、20个决策变量维数的ZDT1~ZDT3测试问题的运行时间 Fig. 4 Running time of EA-SMPSO algorithm and K-SMPSO algorithm to solve the ZDT1~ZDT3 test questions with 5, 10, and 20 decision variable dimensions
4 结束语

本文提出一种基于扰动与记忆的集成辅助多目标优化算法,使用RBFN和SVR代理模型,并结合特征扰动与影响因子分配策略构建集成代理模型,同时考虑了不确定信息以选择进行适应度评估的个体。实验结果表明,该算法在处理具有凹、凸、非连续、非均匀特性的多目标问题时,得到解集的分布性与收敛性相比经典算法更好,并且当决策变量维数增加时,使用集成代理模型可获得比Kriging代理模型更准确的预测结果,同时计算成本较低。下一步将设计更高效的模型管理策略,并通过充分利用并行仿真资源,将本文算法应用于求解更多的昂贵多目标优化问题。

参考文献
[1]
FLEMING P J, PURSHOUSE R C, LYGOE R J. Many objective optimization: an engineering design perspective[C]//Proceedings of International Conference on Evolutionary Multi-Criterion Optimization. Berlin, Germany: Springer, 2005: 14-32.
[2]
MIN A T W, ONG Y S, GUPTA A, et al. Multiproblem surrogates: transfer evolutionary multiobjective optimization of computationally expensive problems[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(1): 15-28. DOI:10.1109/TEVC.2017.2783441
[3]
CHENG R, RODEMANN T, FISCHER M, et al. Evolutionary many-objective optimization of hybrid electric vehicle control: from general optimization to preference articulation[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2017, 1(2): 97-111. DOI:10.1109/TETCI.2017.2669104
[4]
WANG H D, HE S, YAO X. Nadir point estimation for many-objective optimization problems based on emphasized critical regions[J]. Soft Computing, 2017, 21(9): 2283-2295. DOI:10.1007/s00500-015-1940-x
[5]
CHUGH T, SINDHYA K, MIETTINEN K, et al. Surrogate-assisted evolutionary multiobjective shape optimization of an air intake ventilation system[C]//Proceedings of IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2017: 1541-1548.
[6]
JIN Y C, WANG H D, CHUGH T, et al. Data-driven evolutionary optimization: an overview and case studies[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(3): 442-458. DOI:10.1109/TEVC.2018.2869001
[7]
CHUGH T, JIN Y C, MIETTINEN K, et al. A surrogate-assisted reference vector guided evolutionary algorithm for computationally expensive many-objective optimization[J]. IEEE Transactions on Evolutionary Computation, 2018, 22(1): 129-142. DOI:10.1109/TEVC.2016.2622301
[8]
SUN C L, JIN Y C, ZENG J C, et al. A two-layer surrogate-assisted particle swarm optimization algorithm[J]. Soft Computing, 2015, 19(6): 1461-1475. DOI:10.1007/s00500-014-1283-z
[9]
CLARKE S M, GRIEBSCH J H, SIMPSON T W. Analysis of support vector regression for approximation of complex engineering analyses[J]. Journal of Mechanical Design, 2005, 127(6): 1077-1087. DOI:10.1115/1.1897403
[10]
LUO J P, GUPTA A, ONG Y S, et al. Evolutionary optimization of expensive multiobjective problems with co-sub-Pareto front Gaussian process surrogates[J]. IEEE Transactions on Cybernetics, 2019, 49(5): 1708-1721. DOI:10.1109/TCYB.2018.2811761
[11]
GASPAR-CUNHA A, VIEIRA A. A multi-objective evolutionary algorithm using neural networks to approximate fitness evaluations[J]. International Journal of Computing System Signals, 2005, 6(1): 18-36.
[12]
LI F, CAI X W, GAO L, et al. A surrogate-assisted multiswarm optimization algorithm for high-dimensional computationally expensive problems[J]. IEEE Transactions on Cybernetics, 2021, 51(3): 1390-1402. DOI:10.1109/TCYB.2020.2967553
[13]
LIU B, ZHANG Q F, GIELEN G G E. A Gaussian process surrogate model assisted evolutionary algorithm for medium scale expensive optimization problems[J]. IEEE Transactions on Evolutionary Computation, 2013, 18(2): 180-192. DOI:10.1109/TEVC.2013.2248012
[14]
TIAN J, TAN Y, ZENG J C, et al. Multiobjective infill criterion driven Gaussian process-assisted particle swarm optimization of high-dimensional expensive problems[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(3): 459-472. DOI:10.1109/TEVC.2018.2869247
[15]
GOEL T, HAFTKA R T, SHYY W, et al. Ensemble of surrogates[J]. Structural and Multidisciplinary Optimization, 2007, 33(3): 199-216. DOI:10.1007/s00158-006-0051-9
[16]
TANG Y F, CHEN J Q, WEI J H. A surrogate-based particle swarm optimization algorithm for solving optimization problems with expensive black box functions[J]. Engineering Optimization, 2013, 45(5): 557-576. DOI:10.1080/0305215X.2012.690759
[17]
WANG H D, JIN Y C, DOHERTY J. Committee-based active learning for surrogate-assisted particle swarm optimization of expensive problems[J]. IEEE Transactions on Cybernetics, 2017, 47(9): 2664-2677. DOI:10.1109/TCYB.2017.2710978
[18]
HABIB A, SINGH H K, CHUGH T, et al. A multiple surrogate assisted decomposition-based evolutionary algorithm for expensive multi/many-objective optimization[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(6): 1000-1014. DOI:10.1109/TEVC.2019.2899030
[19]
ROSALES-PÉREZ A, COELLO C A C, GONZALEZ J A, et al. A hybrid surrogate-based approach for evolutionary multi-objective optimization[C]//Proceedings of IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2013: 2548-2555.
[20]
魏锋涛, 卢凤仪. 融合核函数在改进径向基代理模型中的应用[J]. 计算机工程与应用, 2019, 55(7): 58-65.
WEI F T, LU F Y. Application of hybrid kernel function in improved radial basis function metamodel[J]. Computer Engineering and Applications, 2019, 55(7): 58-65. (in Chinese)
[21]
EBERHART R, KENNEDY J. A new optimizer using particle swarm theory[C]//Proceedings of the 6th International Symposium on Micro Machine and Human Science. Washington D. C., USA: IEEE Press, 1995: 39-43.
[22]
BROWN G, WYATT J, TINO P. Managing diversity in regression ensembles[J]. Journal of Machine Learning Research, 2005, 6: 1621-1650. DOI:10.1007/s10846-005-9023-3
[23]
王旭仁, 马慧珍, 冯安然, 等. 基于信息增益与主成分分析的网络入侵检测方法[J]. 计算机工程, 2019, 45(6): 175-180.
WANG X R, MA H Z, FENG A R, et al. Network intrusion detection method based on information gain and principal components analysis[J]. Computer Engineering, 2019, 45(6): 175-180. (in Chinese)
[24]
NEBRO A J, DURILLO J J, GARCIA-NIETO J, et al. SMPSO: a new PSO-based metaheuristic for multi-objective optimization[C]//Proceedings of IEEE Symposium on Computational Intelligence in Multi-Criteria Decision-Making. Washington D. C., USA: IEEE Press, 2009: 66-73.
[25]
DEB K, PRATAP A, AGARWAL S, et al. A fast and elitist multiobjective genetic algorithm: NSGAII[J]. IEEE Transactions on Evolutionary Computation, 2002, 6(2): 182-197. DOI:10.1109/4235.996017
[26]
ZHANG Q F, LI H. MOEA/D: a multiobjective evolutionary algorithm based on decomposition[J]. IEEE Transactions on Evolutionary Computation, 2007, 11(6): 712-731. DOI:10.1109/TEVC.2007.892759
[27]
EMMERICH M T M, GIANNAKOGLOU K C, NAUJOKS B. Single- and multiobjective evolutionary optimization assisted by Gaussian random field metamodels[J]. IEEE Transactions on Evolutionary Computation, 2006, 10(4): 421-439. DOI:10.1109/TEVC.2005.859463