开放科学(资源服务)标志码(OSID):
在科学研究及工程应用中存在很多多目标优化问题(Multi-objective Optimization Problem,MOP)[1-2],且这些优化问题呈现出规模越来越大、复杂性越来越高的特征。进化算法是一种模拟自然进化过程的随机优化算法,采用群体搜索策略,无需分析目标函数或约束,单次运行即可获得一组非主导的解,适用于求解多目标优化问题[3]。但是多数多目标进化算法通常需要上万次适应度评估才能得到令人满意的解[4],比如进气通风系统设计问题需要计算流体动力学模拟来优化目标,一次适应度评估就需数小时,整体评估则需耗费几小时甚至几天[5],因此此类多目标优化问题通常被称为昂贵多目标优化问题[6]。
近年来,针对昂贵多目标优化问题,CHUGH等[7]提出一种采用代理模型替代部分昂贵评估的方法,能够有效解决计算开销大的问题。还有一些研究人员分别将径向基函数网络(Radial Basis Function Network,RBFN)[8]、支持向量回归(Support Vector Regression,SVR)[9]、Kriging[10]和人工神经网络(Artificial Neural Network,ANN)[11]用于求解非线性问题。LI等[12]结合自我改进的新预筛选策略提出一种RBF辅助的多种群协同进化算法。LIU等[13]提出一种置信下界辅助的差分进化算法,该算法在优化过程中使用Kriging代理模型在候选后代粒子群中筛选粒子。TIAN等[14]提出一种高斯过程(Gaussian Process,GP)辅助的进化算法,该算法采用多目标填充准则的方式选择真实适应度评估的个体。然而,随着决策变量维数的增加,构建Kriging代理模型的计算成本成指数级增加,且单一代理模型只能解决少数问题,评估精度与多样性较差。
为提高代理模型的质量与多样性:GOEL等[15]提出一种结合多个代理模型的模型集成方法,在集成过程中个体的准确性与多样性达到适当平衡时,可提供比单个模型更高的预测准确率;TANG等[16]提出一种基于二次多项式模型和RBFN组成的混合全局代理模型的代理辅助进化算法;WANG等[17]使用Kriging、PR和RBFN不同代理模型集成了全局与局部模型,强化算法搜索性能并辅助低维优化;HABIB等[18]使用Kriging、RBFN和两种不同功能的RSM代理模型对每个目标进行近似,并在昂贵多目标优化问题上进行了验证;ROSALES-PÉREZ等[19]结合模型选择策略确定SVR超参数,集成一组SVR代理模型解决多目标优化问题。值得注意的是,在模型管理中采样不确定的个体可有效地提高模型质量,并促进搜索空间中潜在有前途区域的探索[17]。Kriging代理模型可为每个解提供近似的不确定信息,还能通过集合成员输出之间的方差提供不确定信息,但以上有关集成代理模型方面的研究专注于提高集成的近似评估准确性,忽略了集成过程中的不确定信息[15]。
为利用不确定信息构造准确性较高的代理模型,本文提出一种基于扰动与记忆的集成辅助多目标优化(Ensemble-Assisted Multi-objective Optimization based on Disturbance and Memory,EAMO-DM)算法。该算法对训练集进行特征扰动产生新数据集并共同训练RBFN和SVR代理模型,生成多样性强且准确性高的集成代理模型,在适应度评估次数有限的情况下找到较好解,同时在模型管理中通过考虑不确定信息以更好地平衡种群多样性与收敛性。
1 相关技术 1.1 多目标优化多目标优化函数表示如下:
$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}\ F\left(\mathit{\boldsymbol{x}}\right)\ =\left\{{f}_{1}\right(\mathit{\boldsymbol{x}}), {f}_{2}(\mathit{\boldsymbol{x}}), \cdots, {f}_{M}(\mathit{\boldsymbol{x}}\left)\right\}\\ \mathrm{s}.\mathrm{t}.\ \mathit{\boldsymbol{x}}\in \mathit{\Omega} \end{array} $ | (1) |
其中:
RBFN代理模型在代理辅助进化算法中具有较强拟合能力,可用于构建局部或全局代理模型,建模计算成本低,问题维度的增加对其拟合效果影响较小[8]。RBFN是具有单个隐藏层的前馈神经网络,结构由输入层、隐含层和输出层组成。给定
$ {\widehat{f}}_{\mathrm{r}}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{N}{\tau }_{i}\varphi \left(\right||{\mathit{\boldsymbol{x}}}_{i}-{\mathit{\boldsymbol{c}}}_{i}|\left|\right) $ | (2) |
其中:
SVR代理模型是一种基于支持向量机的机器学习模型,计算成本低且泛化能力好,对小样本问题也有较好的拟合能力[9]。给定
$ {\widehat{f}}_{\mathrm{s}}\left(\mathit{\boldsymbol{x}}\right)={\mathit{\boldsymbol{\omega }}}^{\mathrm{T}}\varphi \left(\mathit{\boldsymbol{x}}\right)+b $ | (3) |
其中:
$ \begin{array}{l}\mathrm{m}\mathrm{i}\mathrm{n}\frac{1}{2}\sum\limits_{i, j=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})({\alpha }_{j}^{\mathrm{*}}-{\alpha }_{j})K({h}_{i}, {h}_{j})+\\ \varepsilon \sum\limits_{i=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})-\sum\limits_{i=1}^{n}{y}_{i}({\alpha }_{i}^{*}-{\alpha }_{i})\\ \mathrm{s}.\mathrm{t}.\ \sum\limits_{i}^{n}({\alpha }_{i}^{\mathrm{*}}+{\alpha }_{i})=0;0\le {\alpha }_{i}^{\mathrm{*}}, {\alpha }_{i}\le \frac{C}{n}\end{array} $ | (4) |
其中:
$ {\widehat{f}}_{\mathrm{s}}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{n}({\alpha }_{i}^{*}-{\alpha }_{i})K({h}_{i}, {h}_{j})+b $ | (5) |
粒子群优化(Particle Swarm Optimization,PSO)算法是一种基于鸟群的群智能优化算法[21]。在PSO中,搜索空间上的一个粒子为一个潜在解,每个粒子的速度决定其飞行方向和位置,所有粒子跟随当前最优粒子在解空间中搜索,每个粒子的速度和位置计算如下:
$ {v}_{i}^{t+1}=w{v}_{i}^{t}+{c}_{1}{r}_{1}({x}_{\mathrm{p}\mathrm{b}, i}^{t}-{x}_{i}^{t})+{c}_{2}{r}_{2}({x}_{\mathrm{g}\mathrm{b}, i}^{t}-{x}_{i}^{t}) $ | (6) |
$ {x}_{i}^{t+1}={x}_{i}^{t}+{v}_{i}^{t+1} $ | (7) |
其中:
机器学习相关理论证明集成模型中个体的准确性与多样性达到适当平衡时,可以提供比单个模型更精准的预测结果[22]。因此,本文对数据样本引入特征扰动,使模型间样本数据不同,以提升集成个体间的多样性,在模型融合过程中加入基于记忆的影响因子分配策略,以提高集成的准确性。
2.1.1 特征扰动采用主成分分析(Principal Component Analysis,PCA)[23]对种群引入特征扰动,生成全新的样本集。PCA是机器学习中广泛使用的数据处理方法,计算成本低、简单易行,主要思想是在减少数据集维数的同时保留最主要的特征,具体步骤如下:
1)给定初始样本集
$ \mathit{\boldsymbol{C}}=({\mathit{\boldsymbol{x}}}_{i}-\stackrel{-}{\mathit{\boldsymbol{X}}})({\mathit{\boldsymbol{x}}}_{i}{-\stackrel{-}{\mathit{\boldsymbol{X}}})}^{\mathrm{T}}=\mathit{\boldsymbol{X}}{\mathit{\boldsymbol{X}}}^{\mathrm{T}} $ | (8) |
其中:
2)对
$ {\mathit{\boldsymbol{z}}}_{i}={\mathit{\boldsymbol{G}}}^{\mathrm{T}}{\mathit{\boldsymbol{x}}}_{i} $ | (9) |
3)在使用PCA对种群进行处理后,得到一组新训练数据,两组数据共同用于训练不同模型。
2.1.2 基于记忆的影响因子分配策略集成模型中的融合策略用于平衡不同基模型的输出,削弱不完美模型的影响,确保代理预测精度[15]。为提高集成预测的精确度,结合集成模型中各代理的预测输出值,提出一种基于记忆的影响因子分配策略,具体定义如下:
$ {f}^{'}\left(\mathit{\boldsymbol{x}}\right)=\sum\limits_{i=1}^{{N}_{\mathrm{s}}}{I}_{i}{f}_{i}^{'}\left(\mathit{\boldsymbol{x}}\right) $ | (10) |
其中:
$ {I}_{i}=\frac{\sum\limits_{j=1, j\ne i}^{{N}_{\mathrm{s}}}{\stackrel{-}{e}}_{i}}{({N}_{\mathrm{s}}-1)\sum\limits_{j=1}^{{N}_{\mathrm{s}}}{\stackrel{-}{e}}_{i}}, \sum\limits_{i=1}^{{N}_{s}}{I}_{i}=1 $ | (11) |
$ {H}_{i}=\left\{{e}_{i}^{t-(\xi -1)}, {e}_{i}^{t-(\xi -2)}, \cdots, {e}_{i}^{t}\right\} $ | (12) |
其中:
基于记忆的影响因子分配策略的具体步骤如下:
1)更新
2)根据式(12)求取
3)根据式(11)结合
本文在对基模型预测结果进行融合的过程中加入基于记忆的影响因子分配策略,误差小的代理模型被分配的权重大,有效避免了代理模型在采样数据点处表现良好但在未勘探区域表现较差而引起的误差,保证了集成稳定性,提高了算法准确性。
2.1.3 集成代理模型构建结合特征扰动与分配策略的集成代理模型构建如图 1所示。
![]() |
Download:
|
图 1 EAMO-DM算法中集成代理模型的构建 Fig. 1 Construction of ensemble surrogate model in EAMO-DM algorithm |
在集成过程中的基模型选用RBFN代理和SVR代理,其中:RBFN模型建模计算成本低,非线性拟合能力强,在高维搜索空间也有很好表现;SVR模型在小样本问题上占据优势,模型简单并且在中低维搜索空间表现出良好的泛化能力。因此,在集成代理模型构建过程中,将特征扰动及影响因子分配策略分别应用于模型训练和模型融合,结合RBFN模型与SVR模型的优势,提高了集成预测的准确性,更好地逼近不同形态的Pareto前沿并具有高维可拓展性。集成代理模型构建步骤具体如下:
1)使用特征扰动方式对训练集
2)使用经过处理的数据集和初始数据集训练RBFN和SVR代理模型。
3)结合影响因子分配策略将两代理模型组合成集成代理模型。
4)输出集成预测结果。
2.2 基于不确定信息的加点准则通过增加采样点可提高模型准确性,但这一过程因其随机性浪费了计算资源。为提升模型精度同时节约计算成本,采用基于不确定信息的加点准则,用于选择个体进行昂贵适应度评估,并将其加入训练集更新模型。在EAMO-DM算法中,训练集
$ {f}_{\mathrm{L}}\left(\mathit{\boldsymbol{x}}\right)=\widehat{f}\left(\mathit{\boldsymbol{x}}\right)-\mu \widehat{s}\left(\mathit{\boldsymbol{x}}\right) $ | (13) |
其中:
EAMO-DM算法的具体步骤如下:
1)使用拉丁超立方设计方法,采样种群规模为
2)初始化种群中粒子的速度和位置。
3)进入循环,用
4)使用多目标粒子群优化算法进行种群更新,利用集成代理对各粒子进行近似适应度评估,筛选用于真实函数评估的个体,评估后放入训练集
5)更新各粒子的个体极值、全局极值以及外部档案
在EAMO-DM算法运行过程中,训练集
算法1 EAMO-DM算法
输入 最大适应度评估次数
输出 Pareto最优解集
1.用拉丁超立方采样生成初始样本点,用真实函数评估样本点并更新外部档案
2.初始化种群中粒子的位置及速度
3.while
4.用训练集
5.根据式(6)和式(7)更新各粒子的速度和位置,并使用集成代理模型对各粒子进行近似适应度评估
6.筛选用于真实函数评估的粒子,评估后存入训练集
7.更新各粒子的个体极值、全局极值以及外部档案
8.end while
2.4 算法复杂度分析EAMO-DM算法的计算复杂度
$ T=\gamma F+{T}_{\mathrm{E}}+{T}_{\mathrm{o}\mathrm{t}\mathrm{h}\mathrm{e}\mathrm{r}} $ | (14) |
其中:
将ZDT系列测试函数作为多目标优化测试问题,如表 1所示。在EAMO-DM算法框架中,使用SMPSO[24]作为多目标粒子群优化算法,称为EA-SMPSO;将EA-SMPSO算法框架中的集成代理模型替换成单个Kriging模型,称为K-SMPSO;将EAMO-DM算法与SMPSO[24]结合,称为EA-SMPSO;将单个Kriging模型与SMPSO结合,称为K-SMPSO。使用EA-SMPSO与SMPSO、NSGAII[25]、MOEA/D[26]以及K-SMPSO进行实验对比。
![]() |
下载CSV 表 1 多目标优化测试问题设置 Table 1 Setting of multi-objective optimization test problems |
为保证公平性,每种算法进行20次独立实验,评估次数设为1 000。对于每个测试问题,目标数量
选用GD、SP、IGD 3个指标定量评价算法性能:
1)GD指标通过计算真实Pareto前沿
$ {G}_{\mathrm{G}\mathrm{D}}=\frac{{\left(\sum\limits_{i=1}^{N}{d}_{\mathrm{i}\mathrm{s}}^{2}\right)}^{\frac{1}{2}}}{\psi } $ | (15) |
其中:
2)SP指标用于评价算法多样性,其值由最邻近距离的方差表示,计算公式如下:
$ {S}_{\mathrm{S}\mathrm{P}}=\sqrt{\frac{\sum\limits_{i\in {P}_{\mathrm{P}{\mathrm{F}}_{a}}({d}_{i}-\stackrel{-}{d})}{k}^{2}}{\left|P\right|}} $ | (16) |
其中:
3)IGD指标可用于综合评价解集的综合性能,即收敛性和多样性,计算公式如下:
$ {I}_{\mathrm{I}\mathrm{G}\mathrm{D}}=\frac{\left(\sum\limits_{i=1}^{n}{\stackrel{-}{d}}_{i}\right)}{\psi } $ | (17) |
其中:
实验从性能指标、Pareto前沿逼近效果以及算法运行时间三方面对比EA-SMPSO与K-SMPSO、NSGAII、SMPSO及MOEA/D在求解ZDT系列测试问题上的性能表现。
3.2.1 性能指标对比分析经实验得到各种算法GD、SP、IGD指标平均值与标准差,如表 2~表 4所示,其中最优结果加粗显示。
![]() |
下载CSV 表 2 5种算法GD性能指标的平均值和标准差 Table 2 Average and standard deviation of GD performance indicators of 5 algorithms |
![]() |
下载CSV 表 3 5种算法SP性能指标的平均值和标准差 Table 3 Average and standard deviation of SP performance indicators of 5 algorithms |
![]() |
下载CSV 表 4 5种算法IGD性能指标的平均值和标准差 Table 4 Average and standard deviation of IGD performance indicators of 5 algorithms |
1)在决策变量维数为5的ZDT1、ZDT2测试问题上,EA-SMPSO与单个Kriging辅助的K-SMPSO相比,GD值稍差(在ZDT2测试问题上相差不到0.01);在决策变量维数为10的复杂ZDT3、ZDT4测试问题及不均匀的ZDT6测试问题上,EA-SMPSO的GD值比K-SMPSO更好;在决策变量维数为20的ZDT测试问题上,EA-SMPSO在各指标上优势明显。这是算法使用不同的代理模型所致,Kriging代理模型能对低维非线性问题进行更精确的拟合,RBF与SVR代理模型更擅长处理高维小样本问题。
2)在ZDT1~ZDT3测试问题上,随着决策变量维数的增加,EA-SMPSO的SP值较K-SMPSO优势更明显。这表明EAMO-DM算法的多样性更好,同时探索能力更好,并且验证了Kriging模型在高维问题上存在对于不确定信息估计不准确的问题[13],导致算法勘探能力下降。
3)对于不同决策变量维数下的ZDT测试问题,EA-SMPSO相比于没有代理辅助的SMPSO、NSGAII及MOEA/D,在ZDT1~ZDT3测试问题上各指标均更具优势,但在ZDT4测试问题上GD值与SP值稍逊于SMPS与MOEA/D,这是由于ZDT4测试问题有多个局部Pareto前沿,多模态特征使得其用集成代理难以近似。
可见,EA-SMPSO相比于K-SMPSO、NSGAII、SMPSO及MOEA/D搜索所得解集的收敛性与分布性更好,综合优势明显。
为进一步分析多目标优化算法的有效性,以ZDT1~ZDT3测试问题为例,给出EA-SMPSO、K-SMPSO、SMPSO的IGD指标变化趋势,如图 2所示。从图 2可以看出:SMPSO、K-SMPSO与EA-SMPSO的IGD值都随评估次数增加较为平稳下降。虽然K-SMPSO与EA-SMPSO均能收敛到较好指标,但集成代理辅助条件下指标下降更快,因为EA-SMPSO比单个Kriging代理更为精确,能更快地搜索到更好的解,同时验证了集成代理提供的不确定信息的有效性。另外,对于相同IGD指标,EA-SMPSO与SMPSO相比,使用集成代理的EA-SMPSO约减少90%的评估次数,这对于昂贵多目标优化问题具有重要意义。
![]() |
Download:
|
图 2 EA-SMPSO、K-SMPSO和SMPSO算法求解ZDT1~ZDT3测试问题时的IGD指标变化趋势 Fig. 2 Variation trend of IGD when EA-SMPSO, K-SMPSO and SMPSO algorithms solve ZDT1~ZDT3 test questions |
图 3给出了各算法在求解ZDT系列测试问题时获得的近似Pareto前沿,其中f1、f2代表ZDT系列测试问题中的2个目标函数值,彩色效果见《计算机工程》官网HTML版。由图 3可以看出,EA-SMPSO在ZDT1~ZDT3以及ZDT6上逼近效果最好,具有较好的收敛性以及分布性。值得注意的是,ZDT4是一个具有复杂多模态的测试函数,使用集成模型或者Kriging模型辅助的SMPSO近似Pareto前沿的效果稍弱于SMPSO本身,但对于昂贵多目标优化问题重要的是使用更少评估次数获得更好的解。在ZDT4测试问题上:MOEA/D与NSGAII都无法很好地逼近Pareto前沿,因此不适合昂贵多目标优化问题;EA-SMPSO相比于K-SMPSO在Pareto前沿上找到了更多的解,说明集成代理模型相对Kriging模型在复杂多模态问题上更具优势。
![]() |
Download:
|
图 3 5种算法求解具有10个决策变量维数的ZDT1~ZDT4和ZDT6测试问题时获得的近似Pareto前沿 Fig. 3 Pareto front of 5 algorithms solve the ZDT1~ZDT4 and ZDT6 test questions with 10 decision variable dimensions |
为进一步分析本文提出的集成代理模型较单个Kriging模型在昂贵多目标优化问题上的优势,对具有5、10、20个决策变量维度的ZDT系列测试问题使用EA-SMPSO与K-SMPSO分别进行求解,记录其所需的运行时间。如图 4所示,随着决策变量维度的增加,K-SMPSO需增加采样点保证Kriging模型的精度,计算成本呈指数增加,因此K-SMPSO相比于EA-SMPSO的运行时间增长更快,而EA-SMPSO可使用一组数据构建更为精确的集成模型,加快了寻优速度,节约了计算成本。
![]() |
Download:
|
图 4 EA-SMPSO算法和K-SMPSO算法求解具有5、10、20个决策变量维数的ZDT1~ZDT3测试问题的运行时间 Fig. 4 Running time of EA-SMPSO algorithm and K-SMPSO algorithm to solve the ZDT1~ZDT3 test questions with 5, 10, and 20 decision variable dimensions |
本文提出一种基于扰动与记忆的集成辅助多目标优化算法,使用RBFN和SVR代理模型,并结合特征扰动与影响因子分配策略构建集成代理模型,同时考虑了不确定信息以选择进行适应度评估的个体。实验结果表明,该算法在处理具有凹、凸、非连续、非均匀特性的多目标问题时,得到解集的分布性与收敛性相比经典算法更好,并且当决策变量维数增加时,使用集成代理模型可获得比Kriging代理模型更准确的预测结果,同时计算成本较低。下一步将设计更高效的模型管理策略,并通过充分利用并行仿真资源,将本文算法应用于求解更多的昂贵多目标优化问题。
[1] |
FLEMING P J, PURSHOUSE R C, LYGOE R J. Many objective optimization: an engineering design perspective[C]//Proceedings of International Conference on Evolutionary Multi-Criterion Optimization. Berlin, Germany: Springer, 2005: 14-32.
|
[2] |
MIN A T W, ONG Y S, GUPTA A, et al. Multiproblem surrogates: transfer evolutionary multiobjective optimization of computationally expensive problems[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(1): 15-28. DOI:10.1109/TEVC.2017.2783441 |
[3] |
CHENG R, RODEMANN T, FISCHER M, et al. Evolutionary many-objective optimization of hybrid electric vehicle control: from general optimization to preference articulation[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2017, 1(2): 97-111. DOI:10.1109/TETCI.2017.2669104 |
[4] |
WANG H D, HE S, YAO X. Nadir point estimation for many-objective optimization problems based on emphasized critical regions[J]. Soft Computing, 2017, 21(9): 2283-2295. DOI:10.1007/s00500-015-1940-x |
[5] |
CHUGH T, SINDHYA K, MIETTINEN K, et al. Surrogate-assisted evolutionary multiobjective shape optimization of an air intake ventilation system[C]//Proceedings of IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2017: 1541-1548.
|
[6] |
JIN Y C, WANG H D, CHUGH T, et al. Data-driven evolutionary optimization: an overview and case studies[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(3): 442-458. DOI:10.1109/TEVC.2018.2869001 |
[7] |
CHUGH T, JIN Y C, MIETTINEN K, et al. A surrogate-assisted reference vector guided evolutionary algorithm for computationally expensive many-objective optimization[J]. IEEE Transactions on Evolutionary Computation, 2018, 22(1): 129-142. DOI:10.1109/TEVC.2016.2622301 |
[8] |
SUN C L, JIN Y C, ZENG J C, et al. A two-layer surrogate-assisted particle swarm optimization algorithm[J]. Soft Computing, 2015, 19(6): 1461-1475. DOI:10.1007/s00500-014-1283-z |
[9] |
CLARKE S M, GRIEBSCH J H, SIMPSON T W. Analysis of support vector regression for approximation of complex engineering analyses[J]. Journal of Mechanical Design, 2005, 127(6): 1077-1087. DOI:10.1115/1.1897403 |
[10] |
LUO J P, GUPTA A, ONG Y S, et al. Evolutionary optimization of expensive multiobjective problems with co-sub-Pareto front Gaussian process surrogates[J]. IEEE Transactions on Cybernetics, 2019, 49(5): 1708-1721. DOI:10.1109/TCYB.2018.2811761 |
[11] |
GASPAR-CUNHA A, VIEIRA A. A multi-objective evolutionary algorithm using neural networks to approximate fitness evaluations[J]. International Journal of Computing System Signals, 2005, 6(1): 18-36. |
[12] |
LI F, CAI X W, GAO L, et al. A surrogate-assisted multiswarm optimization algorithm for high-dimensional computationally expensive problems[J]. IEEE Transactions on Cybernetics, 2021, 51(3): 1390-1402. DOI:10.1109/TCYB.2020.2967553 |
[13] |
LIU B, ZHANG Q F, GIELEN G G E. A Gaussian process surrogate model assisted evolutionary algorithm for medium scale expensive optimization problems[J]. IEEE Transactions on Evolutionary Computation, 2013, 18(2): 180-192. DOI:10.1109/TEVC.2013.2248012 |
[14] |
TIAN J, TAN Y, ZENG J C, et al. Multiobjective infill criterion driven Gaussian process-assisted particle swarm optimization of high-dimensional expensive problems[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(3): 459-472. DOI:10.1109/TEVC.2018.2869247 |
[15] |
GOEL T, HAFTKA R T, SHYY W, et al. Ensemble of surrogates[J]. Structural and Multidisciplinary Optimization, 2007, 33(3): 199-216. DOI:10.1007/s00158-006-0051-9 |
[16] |
TANG Y F, CHEN J Q, WEI J H. A surrogate-based particle swarm optimization algorithm for solving optimization problems with expensive black box functions[J]. Engineering Optimization, 2013, 45(5): 557-576. DOI:10.1080/0305215X.2012.690759 |
[17] |
WANG H D, JIN Y C, DOHERTY J. Committee-based active learning for surrogate-assisted particle swarm optimization of expensive problems[J]. IEEE Transactions on Cybernetics, 2017, 47(9): 2664-2677. DOI:10.1109/TCYB.2017.2710978 |
[18] |
HABIB A, SINGH H K, CHUGH T, et al. A multiple surrogate assisted decomposition-based evolutionary algorithm for expensive multi/many-objective optimization[J]. IEEE Transactions on Evolutionary Computation, 2019, 23(6): 1000-1014. DOI:10.1109/TEVC.2019.2899030 |
[19] |
ROSALES-PÉREZ A, COELLO C A C, GONZALEZ J A, et al. A hybrid surrogate-based approach for evolutionary multi-objective optimization[C]//Proceedings of IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2013: 2548-2555.
|
[20] |
魏锋涛, 卢凤仪. 融合核函数在改进径向基代理模型中的应用[J]. 计算机工程与应用, 2019, 55(7): 58-65. WEI F T, LU F Y. Application of hybrid kernel function in improved radial basis function metamodel[J]. Computer Engineering and Applications, 2019, 55(7): 58-65. (in Chinese) |
[21] |
EBERHART R, KENNEDY J. A new optimizer using particle swarm theory[C]//Proceedings of the 6th International Symposium on Micro Machine and Human Science. Washington D. C., USA: IEEE Press, 1995: 39-43.
|
[22] |
BROWN G, WYATT J, TINO P. Managing diversity in regression ensembles[J]. Journal of Machine Learning Research, 2005, 6: 1621-1650. DOI:10.1007/s10846-005-9023-3 |
[23] |
王旭仁, 马慧珍, 冯安然, 等. 基于信息增益与主成分分析的网络入侵检测方法[J]. 计算机工程, 2019, 45(6): 175-180. WANG X R, MA H Z, FENG A R, et al. Network intrusion detection method based on information gain and principal components analysis[J]. Computer Engineering, 2019, 45(6): 175-180. (in Chinese) |
[24] |
NEBRO A J, DURILLO J J, GARCIA-NIETO J, et al. SMPSO: a new PSO-based metaheuristic for multi-objective optimization[C]//Proceedings of IEEE Symposium on Computational Intelligence in Multi-Criteria Decision-Making. Washington D. C., USA: IEEE Press, 2009: 66-73.
|
[25] |
DEB K, PRATAP A, AGARWAL S, et al. A fast and elitist multiobjective genetic algorithm: NSGAII[J]. IEEE Transactions on Evolutionary Computation, 2002, 6(2): 182-197. DOI:10.1109/4235.996017 |
[26] |
ZHANG Q F, LI H. MOEA/D: a multiobjective evolutionary algorithm based on decomposition[J]. IEEE Transactions on Evolutionary Computation, 2007, 11(6): 712-731. DOI:10.1109/TEVC.2007.892759 |
[27] |
EMMERICH M T M, GIANNAKOGLOU K C, NAUJOKS B. Single- and multiobjective evolutionary optimization assisted by Gaussian random field metamodels[J]. IEEE Transactions on Evolutionary Computation, 2006, 10(4): 421-439. DOI:10.1109/TEVC.2005.859463 |