开放科学(资源服务)标志码(OSID):
进化算法是一类基于种群个体随机搜索的算法[1-2],由于其强大的搜索能力及简单易用的特性,在路径规划[3]、软件工程[4]等现实问题中被广泛的应用,并取得了良好的效果。
近年来,研究人员受到人类大脑能同时处理多个任务的启发,提出多任务进化(Evolutionary Multi-Tasking,EMT)[5-6]的研究方向,传统的进化搜索方法一次只能解决一个任务,然而EMT方法一次运行能够同时解决多个任务。研究表明,与传统的单任务进化算法相比,由于EMT方法利用了任务间潜在的协同作用,使其在解决优化问题时具有更好的性能[7]。EMT包括单目标多任务优化(Single-Objective Multi-Tasking Optimization,STO)[8]和多目标多任务优化(Multi-Objective Multi-Tasking Optimization,MTO)。本文研究的是求解MTO问题[9]的算法性能。
当前,求解MTO问题的算法大致可以分为基于单个种群进化的算法和基于多个种群进化的算法。前者的典型代表是文献[9]提出的解决MTO问题的MO-MFEA算法,该算法通过采用单个种群来同时优化多个相关的任务,并以预先设定的概率决定是否要实施任务间的知识迁移。文献[10]在MO-MFEA算法的基础上引入粒子群优化[11-12]和差分进化策略[13-14],提出解决MTO问题的新算法。实验结果表明,上述多任务优化算法比其对应的单任务优化算法的性能更好。后者的典型代表是文献[15]提出的全新多种群多任务框架,使用多个子种群同时解决多个任务,每个子种群对应于解决单个任务。文献[16]在多个种群的条件下,采用一种高效的知识迁移策略来促进多个任务的同时优化。大量实验表明,多种群MTO框架由于能在多个种群之间互相独立,可以灵活解决多个任务的优化问题,因此比单种群MTO框架更具有优势。尽管当前解决MTO问题的算法较多,但这些算法涉及到衡量任务间相似度的研究很少,有些算法虽然包含衡量任务间相似度的策略,但步骤较繁琐,计算量较大,难以推广应用。
本文提出一种多目标多任务优化算法,基于自适应协方差矩阵的进化策略,从某个正态分布中采样产生种群个体,使种群分布特征具有规律性,并采用任务间种群的分布特征差异和分布距离衡量任务间的相似程度。设计一种从相似任务中寻找有价值的解,进而实施知识迁移的方法,并基于迁移学习的思想,对相似任务中的解实施K最近邻(K-Nearest Neighbor,KNN)分类,以筛选出对目标任务更有价值的解。
1 相关工作 1.1 多目标多任务优化算法多目标多任务优化是进化计算领域的一个重要研究方向。但目前大部分的多目标多任务优化算法主要解决2个待优化任务的问题,较少涉及到研究超多任务优化问题。文献[17]阐明了使用进化算法解决现实生活中超多任务优化问题的可行性,当待优化的任务数量超过2个时,为避免过高的时间开销,对于某个给定的目标任务,从其余任务中选择一个与目标任务最相似的辅助任务,进而实施任务间的知识迁移,因此衡量任务间的相似性是解决超多任务优化问题的核心。文献[18]从最优解之间的距离、适应度等级的相关性和适应值函数范围分析3个方面衡量任务间的相似性。文献[19]提出一个协同性度量指标量化不同任务间的联系,这一度量指标可以从侧面证明任务间的知识迁移能够同时促进多个待优化任务的收敛性能。
基于任务间的相似性,为求解超多任务优化问题,文献[20]采用轮盘赌的方法为目标任务选择一个合适的辅助任务,某个与目标任务最相似的任务有较大的概率被选为辅助任务,从而通过迁移有用的知识来减少负迁移的产生。文献[21]通过同时考虑任务间的相似性和进化过程中知识迁移的累积奖励值,提出一种自适应辅助任务选择机制,采用KL散度衡量任务间的相似性,并基于强化学习的思想,构建关于种群进化过程中任务间知识迁移的累积奖励系统,选择出合适的辅助任务,并通过交叉的方式实现知识迁移。文献[22]基于任务间种群概率分布的差异自适应地学习任务间的联系,并根据进化过程中求得的不同任务种群间的联系,自适应调整知识迁移的强度。文献[21]和文献[22]中的算法均采用高斯分布来近似模拟种群的真实概率分布,但实际上,种群的真实分布通常是随机且不可预测的,且算法花费大量的计算资源在衡量任务间的相似度上,导致最终运行的效率较低。
1.2 自适应协方差矩阵进化算法CMA-ESCMA-ES算法[23-24]是目前性能较好、应用较多的进化策略之一,在中等规模的复杂优化问题处理上具有良好的效果。CMA-ES算法的核心思想是:每一代种群的所有个体均从某个正态分布群体
1)采样产生新的种群个体。在CMA-ES算法中,进化过程中的每一代种群均从
{x}_{i}={m}_{t}+{\sigma }_{t}{y}_{i}, {y}_{i}~N(0, {\mathit{\boldsymbol{C}}}_{t}) | (1) |
其中:yi通过协方差矩阵Ct的特征分解
{y}_{i}=\mathit{\boldsymbol{B}}\mathit{\boldsymbol{D}}{z}_{i}, {z}_{i}~N(0, \mathit{\boldsymbol{I}}) | (2) |
其中:B为正交矩阵;D为对角矩阵且其对角元素值为矩阵Ct特征值的平方根;I为单位矩阵。
2)进化路径的更新。在CMA-ES算法中,每一代种群的进化路径均通过如下的方式构造[24]:
{\mathit{\boldsymbol{p}}}_{t+1}=(1-c){\mathit{\boldsymbol{p}}}_{t}+\sqrt{c(2-c)}\sqrt{{\mu }_{w}}\frac{{m}_{t+1}-{m}_{t}}{{\sigma }_{t}} | (3) |
其中:pt表示在第t代的进化路径;c表示进化路径更新的累积学习率;
式(3)描述了种群分布均值的移动方向,将每一代种群进化过程中的移动方向做加权平均,使得种群中每个个体相反的进化方向分量相互抵消,相同的进化方向分量相互叠加,从而保证种群沿着最优的方向搜索。
3)协方差矩阵的更新。通过增大沿历史成功搜索最优方向的方差,即增大沿这些最优搜索方向的采样概率,避免算法把搜索资源浪费在无效的区域上。协方差矩阵的更新原理如式(4)所示[24]:
{\mathit{\boldsymbol{C}}}_{t+1}=(1-{c}_{1}-{c}_{\mu }){\mathit{\boldsymbol{C}}}_{t}+{c}_{1}{\mathit{\boldsymbol{p}}}_{t+1}{\mathit{\boldsymbol{p}}}_{t+1}^{\mathrm{T}}+{c}_{\mu }\sum _{i=1}^{\mu }{\mathit{\boldsymbol{y}}}_{i}{\mathit{\boldsymbol{y}}}_{i}^{\mathrm{T}} | (4) |
其中:yi表示当前种群中较优个体的搜索方向;c1和cμ表示协方差矩阵更新的学习率。
本文采用下述方法衡量任务间的相似度:基于CMA-ES算法的思想,每一代种群在进化过程中,均从正态分布群体采样产生种群个体,即种群的均值和协方差矩阵可以反映当前种群的特征,因此通过种群的均值和协方差矩阵来表示任务之间的联系,从而为目标任务选择出一个最合适的辅助任务来实施知识迁移,加速目标任务的收敛进程。
2 本文算法 2.1 种群编码和解码为便于在任务间高效地实施知识迁移,目前许多多任务优化算法采用统一空间表示法对不同任务的种群实施编码[9]。具体为,首先把所有任务的解集均编码到一个统一的搜索空间中。例如,给定K个待优化的任务
当要对某个特定的任务Ti中的个体实施评估时,必须把该个体的染色体解码为任务Ti对应问题的解。同时,对于任务Ti中的个体,只使用其对应染色体的前
{y}_{i}={L}_{i}+({U}_{i}-{L}_{i})\times {x}_{i} | (5) |
该解码策略把实际问题中的解与统一搜索空间中的染色体一一对应,通过在统一搜索空间中进行染色体间的杂交变异,从而在实际问题中增加每个任务最优解的多样性。
2.2 任务间相似度衡量若有K个待优化的任务
给定任务T1的种群
首先,对任务T1和任务T2中种群的协方差矩阵分别实施特征分解:
{\mathit{\boldsymbol{E}}}_{1}^{\mathrm{T}}{\mathit{\boldsymbol{C}}}_{1}{\mathit{\boldsymbol{E}}}_{1}=\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_{1}=\mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g}({\lambda }_{1}^{P}, {\lambda }_{2}^{P}, \cdots , {\lambda }_{d}^{P}) | (6) |
{\mathit{\boldsymbol{E}}}_{2}^{\mathrm{T}}{\mathit{\boldsymbol{C}}}_{2}{\mathit{\boldsymbol{E}}}_{2}=\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_{2}=\mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g}({\lambda }_{1}^{Q}, {\lambda }_{2}^{Q}, \cdots , {\lambda }_{d}^{Q}) | (7) |
其中:
接着,分别从
{\mathit{\boldsymbol{P}}}_{s}={\mathit{\boldsymbol{E}}}_{1}^{\mathrm{s}\mathrm{o}\mathrm{r}\mathrm{t}}(1:k) | (8) |
{\mathit{\boldsymbol{P}}}_{t}={\mathit{\boldsymbol{E}}}_{2}^{\mathrm{s}\mathrm{o}\mathrm{r}\mathrm{t}}(1:k) | (9) |
其中:
最后,由于
\mathrm{C}\mathrm{o}\mathrm{v}\mathrm{d}({T}_{1}, {T}_{2})=\frac{\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{1}+\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{2}+\cdots +\mathrm{s}\mathrm{i}\mathrm{n}{\theta }_{k}}{k} | (10) |
其中:
若任务T1的种群
任务T1和任务T2之间的种群分布距离的表达式如式(11)所示:
\mathrm{D}\mathrm{i}\mathrm{s}({T}_{1}, {T}_{2})={‖{m}_{1}-{m}_{2}‖}_{2}^{2} | (11) |
其中:任务T1和任务T2的种群均值间的距离(种群中心之间的距离)表示任务T1和任务T2的种群分布间的交叉程度。若任务T1和任务T2之间的种群分布距离较近,则在任务T1和任务T2之间实施知识迁移能够促进每个任务的优化进程。
2.2.3 任务间种群相似度衡量基于CMA-ES算法的思想,每个任务中的种群均通过正态分布采样产生,在种群进化的前期阶段,每个任务中的种群均朝着各自的最优解方向搜索,种群的协方差矩阵可以反映种群沿着最优解方向搜索时的分布特征,因此在种群进化的前期,任务间种群的相似度主要由任务间种群分布特征的差异决定。在种群进化的后期阶段,大部分任务中的种群已经收敛到了最优解,此时任务间种群的相似度主要由任务间种群分布的距离决定。采用式(12)来表达种群进化全过程中,任务T1和任务T2之间种群的相似度:
\mathrm{S}\mathrm{i}\mathrm{m}({T}_{1}, {T}_{2})=(1-\lambda )\mathrm{C}\mathrm{o}\mathrm{v}\mathrm{d}({T}_{1}, {T}_{2})+\lambda \mathrm{D}\mathrm{i}\mathrm{s}({T}_{1}, {T}_{2}) | (12) |
其中:
图 1所示为本文算法任务间知识迁移策略的具体流程图。可以看到,在种群进化的第g代,对于某个待优化的目标任务Tt,根据本文策略可以找到与目标任务Tt最相似的任务是Ta。依据迁移学习的思想,把目标任务Tt种群中的解分成两类,一类是非支配解,标记为“1”,另一类是支配解,标记为0,把这些解作为给任务Ta中解分类的源标签,本文采用K最近邻(KNN)分类,具体的分类方式为,对于任务Ta中的某个解P,找出目标任务Tt中距离解P最近的2个解Q1和Q2,并记录他们的标签为La、Lb,若La+Lb=2,则把解P标记为“1”,否则记为“0”。接着,对于任务Ta中标记为“1”的解(近似目标任务中的非支配解),将他们迁移到目标任务Tt的种群中,从而促进目标任务的优化进程。若根据式(12)计算得到目标任务Tt与任务Ta的相似度在逐代降低,表明此时所有任务均与目标任务Tt不相似,为避免无效的迁移,应停止知识迁移,让目标任务Tt中的种群个体之间独立进化产生后代。
![]() |
Download:
|
图 1 任务间知识迁移策略流程 Fig. 1 Procedure of knowledge transfer strategy between tasks |
综合以上过程,本节给出解决多目标多任务优化问题的EMTSD算法。若给定一个有K个任务的多目标多任务优化问题,EMTSD算法通过进化K个独立的种群来同时优化这些任务。首先,EMTSD算法初始化K个种群P1,P2,…,PK,并按照2.1节中的策略将这K个种群中的所有个体均编码到一个统一的空间中,便于各个任务之间的知识实施互相迁移。然后,对于某个特定的目标任务Tt,按照2.2节的过程,根据式(12)从其余K-1个任务中找出当前与目标任务Tt最相似的任务Ta,并按照2.3节的策略在目标任务Tt与任务Ta之间实施知识迁移,从而促进目标任务Tt的收敛进程。若在进化过程中发现目标任务Tt与其余任务的相似度降低,则停止知识迁移,让目标任务Tt种群内部中的个体独立产生后代。EMTSD算法的具体框架如图 2所示。
![]() |
Download:
|
图 2 EMTSD算法的整体框架 Fig. 2 Overall framework of the EMTSD algorithm |
为验证本文算法EMTSD的性能,本文使用文献[25]提出的多目标多任务测试集,包括CIHS、CIMS、PIHS、PIMS等,每个测试集由2个多目标优化问题(2个任务)构成。通过对这些测试集的Pareto Sets进行旋转和平移,得到4组新的多目标多任务测试集,分别记为MATP1~MATP4,这4组测试集是基于任务间联系的先验知识创建的,任务间的联系通过多目标优化问题的Pareto Sets重合程度来衡量。每个测试集包含5个任务,这些测试问题的详细信息如表 1所示。
![]() |
下载CSV 表 1 多目标多任务测试问题信息 Table 1 Information about multi-objective multi-tasking test problems |
在上述4组测试函数集的基础上,将本文算法EMTSD与MO-MFEA-Ⅱ[22]、MaTEA[21]、MO-MFEA[9]等多目标多任务算法进行比较。其中:MO-MFEA-Ⅱ算法采用最小化任务间KL散度的方式找出任务间的联系;MaTEA算法采用KL散度和自适应奖励策略的方式为目标任务选择一个最合适的辅助任务;MO-MFEA算法采用随机迁移的方式实施任务间的知识迁移。
3.1 实验参数设置将实验中每个任务的种群规模设置为100,算法的最大进化代数为500代,算法的独立运行次数为20次。对于多目标多任务优化算法,多目标优化算法是NSGA-Ⅱ。在DE算法中,令F=0.5、CCR=0.4。根据文献[24],CMA-ES算法中的步长参数
本文采用反转世代距离(Inverted Generational Distance,IGD)来表征算法的性能。IGD的原理是计算Pareto最优解集中的点到算法最终得到的解之间的平均距离。IGD的值越小,表明算法最终得到的解接近问题的Pareto前沿界面且具有良好的分布性。IGD值通过式(13)计算:
{I}_{\mathrm{I}\mathrm{G}\mathrm{D}}=\frac{\sum\limits_{x\in {P}^{\mathrm{*}}}\mathrm{d}\mathrm{i}\mathrm{s}\mathrm{t}(x, A)}{\left|{P}^{\mathrm{*}}\right|} | (13) |
其中:dist(x,A)表示Pareto前沿界面上的参考点x到算法最终求解得到的解之间的最小距离;P*表示Pareto前沿界面上预设的参考点集合。
3.3 结果分析表 2所示为EMTSD算法、MaTEA算法、MO-MFEA-Ⅱ算法与MO-MFEA算法在4组多任务测试集下运行20次得到的平均IGD值,表中加粗数字表示该组数据最大值。
![]() |
下载CSV 表 2 不同算法在测试集下运行的平均IGD值对比 Table 2 Comparison of average IGD value of different algorithms running on the test suites |
从表 2中可以看到,与其他算法相比,EMTSD算法在大多数测试问题中均显示出卓越的性能,这是因为在每一代种群进化过程中,EMTSD算法均从正态分布群体中采样产生新的种群个体,通过任务间种群的分布特征差异和分布距离找到任务间相似度,进而实施任务间的知识迁移,促进种群中解的多样性并加速目标任务的收敛。MaTEA算法和MO-MFEA-Ⅱ算法均采用多元高斯分布来近似模拟种群的真实分布,然而这些算法中的种群个体通过杂交变异产生,并不像EMTSD算法通过在多元高斯分布中采样产生种群个体,这样会导致真实的种群分布是随机且不可预测的,因此多元高斯分布通常很难准确近似为真实的种群分布。对于MO-MFEA算法,由于缺乏衡量任务间相似度的步骤,因此在任务间随机进行知识迁移时,难以保证知识迁移会对目标任务起作用。然而,EMTSD算法在MATP2-T1、MATP2-T3、MATP2-T4、MATP2-T5、MATP3-T3、MATP3-T4、MATP4-T2这7个任务中的性能比其他算法差。在实验中发现,测试问题集MATP2和MATP3中各个测试问题的Pareto Sets之间较相似,因此在其他算法中,针对某个目标任务,从最相似的任务中随机选择解来实施知识迁移的策略,能够帮助目标任务跳出局部最优,找到更多分布性良好的最优解。
表 3所示为EMTSD算法、MaTEA算法、MO-MFEA-Ⅱ算法与MO-MFEA算法在4组多任务测试集下运行20次的平均运行时间对比。由于EMTSD算法、MaTEA算法和MO-MFEA-Ⅱ算法衡量任务间相似度的方式不同,因此每个算法在衡量任务间相似度方面花费的计算资差异直接影响了各个算法最终运行时间的差异。
![]() |
下载CSV 表 3 不同算法在测试集运行时的平均运行时间对比 Table 3 Comparsion of average running time of different algorithms |
由表 3可知,EMTSD算法的运行时间比MaTaE算法和MO-MFEA-Ⅱ算法都要短,MO-MFEA-Ⅱ算法运行的时间最长。这主要是因为MO-MFEA-Ⅱ算法需要构建概率模型来近似种群的真实分布,而求解该概率模型需要花费大量的计算资源。此外,EMTSD算法在4组多任务测试集下的平均运行时间比MaTEA算法缩短约66.62%。尽管MO-MFEA算法只需要很短的运行时间,但它缺乏衡量任务间相似度这一步骤,随机实施知识迁移的做法会导致算法的性能较差。
为验证EMTSD算法在衡量任务间相似度方面的有效性,表 4和表 5分别列出了EMTSD算法在MATP1和MATP2测试集中计算得到的任务间相似度,其中“—”表示忽略该栏的值。由表 4和表 5可知,在MATP1测试集中,任务T1与任务T2较相似,任务T3与任务T4较相似,任务T5与其他任务之间的相似度较低。在MATP2测试集中,任务T1与任务T2之间、任务T3与任务T4之间的相似程度均较高,任务T5与其他任务之间的相似度较低。实验得出的结果与事先已知的任务间相似度高度吻合,因此可以说明EMTSD算法衡量任务间相似度的方法是有效的。
![]() |
下载CSV 表 4 EMTSD算法在MATP1测试集中得到的任务间相似度 Table 4 Similarity between tasks in the MATP1 test set obtained by EMTSD algorithm |
![]() |
下载CSV 表 5 EMTSD算法在MATP2测试集中得到的任务间相似度 Table 5 Similarity between tasks in the MATP2 test set obtained by EMTSD algorithm |
本文提出一种基于自适应协方差矩阵调整的多目标多任务优化算法,令所有任务中的种群个体均通过正态分布采样产生,并采用不同任务种群间的分布特征差异和分布距离得到任务间的相似度,从而找到与目标任务最相似的任务并实施知识迁移。采用种群的协方差矩阵反映种群的分布特征,使用不同种群均值之间的距离反映任务间种群的分布距离。实验结果表明,与EMTSD、MaTEA、MO-MFEA-Ⅱ等多目标多任务优化算法相比,本文算法具有较好的收敛性能,平均运行效率提高了约66.62%。下一步将结合迁移学习中特征迁移的相关理论,使本文算法能应用于复杂的多目标多任务优化问题。
[1] |
PISARSKI S, RUGALA A, BYRSKI A, et al. Evolutionary multi-agent system in hard benchmark continuous optimisation[M]. Berlin, Heidelberg: Springer, 2013: 132-141.
|
[2] |
李智翔, 李赟, 褚衍杰. 基于改进平衡策略的多目标分解优化算法[J]. 计算机工程, 2019, 45(3): 155-161. LI Z X, LI Y, CHU Y J. Decomposition multi-objective optimization algorithm based on improved balancing strategy[J]. Computer Engineering, 2019, 45(3): 155-161. (in Chinese) |
[3] |
ZHU Z X, WANG F X, HE S, et al. Global path planning of mobile robots using a memetic algorithm[J]. International Journal of Systems Science, 2015, 46(11): 1982-1993. DOI:10.1080/00207721.2013.843735 |
[4] |
HIERONS R M, LI M Q, LIU X H, et al. SIP: optimal product selection from feature models using many-objective evolutionary optimization[J]. ACM Transactions on Software Engineering and Methodology, 2016, 25(2): 17-29. |
[5] |
ONG Y S, GUPTA A. Evolutionary multitasking: a computer science view of cognitive multi-tasking[J]. Cognitive Computation, 2016, 8(2): 125-142. DOI:10.1007/s12559-016-9395-7 |
[6] |
XU Q Z, WANG N, WANG L, et al. Multi-task optimization and multi-task evolutionary computation in the past five years: a brief review[J]. Mathematics, 2021, 9(8): 864-873. DOI:10.3390/math9080864 |
[7] |
YANG C E, DING J L, JIN Y C, et al. Multitasking multi-objective evolutionary operational indices optimization of beneficiation processes[J]. IEEE Transactions on Automation Science and Engineering, 2019, 16(3): 1046-1057. DOI:10.1109/TASE.2018.2865593 |
[8] |
BALI K K, GUPTA A, FENG L, et al. Linearized domain adaptation in evolutionary multitasking[C]//Proceedings of 2017 IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2017: 1295-1302.
|
[9] |
GUPTA A, ONG Y S, FENG L, et al. Multi objective multifactorial optimization in evolutionary multitasking[J]. IEEE Transactions on Cybernetics, 2017, 47(7): 1652-1665. DOI:10.1109/TCYB.2016.2554622 |
[10] |
FENG L, ZHOU L, ZHONG J H, et al. Evolutionary multitasking via explicit autoencoding[J]. IEEE Transactions on Cybernetics, 2019, 49(9): 3457-3470. DOI:10.1109/TCYB.2018.2845361 |
[11] |
SHEN Y, LI Y, KANG H W, et al. Research on swarm size of multi-swarm particle swarm optimization algorithm[C]//Proceedings of the 4th International Conference on Computer and Communications. Washington D. C., USA: IEEE Press, 2018: 37-43.
|
[12] |
邱宁佳, 李娜, 胡小娟, 等. 基于粒子群优化的朴素贝叶斯改进算法[J]. 计算机工程, 2018, 44(11): 27-32, 39. QIU N J, LI N, HU X J, et al. Improved native Bayes algorithm based on particle swarm optimization[J]. Computer Engineering, 2018, 44(11): 27-32, 39. (in Chinese) |
[13] |
刘树强, 秦进. 一种求解动态优化问题的改进自适应差分进化算法[J]. 计算机工程, 2021, 47(4): 84-91, 99. LIU S Q, QIN J. An improved self-adaptive differential evolution algorithm for solving dynamic optimization problem[J]. Computer Engineering, 2021, 47(4): 84-91, 99. (in Chinese) |
[14] |
吕铭晟, 沈洪远, 李志高, 等. 多变异策略差分进化算法的研究与应用[J]. 计算机工程, 2014, 40(12): 146-150. LÜ M S, SHEN H Y, LI Z G, et al. Research and application of differential evolution algorithm under multiple mutation strategy[J]. Computer Engineering, 2014, 40(12): 146-150. (in Chinese) |
[15] |
CHEN Y L, ZHONG J H, TAN M K. A fast memetic multi-objective differential evolution for multi-tasking optimization[C]//Proceedings of 2018 IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2018: 1-8.
|
[16] |
LIN J B, LIU H L, TAN K C, et al. An effective knowledge transfer approach for multi objective multitasking optimization[J]. IEEE Transactions on Cybernetics, 2021, 51(6): 3238-3248. DOI:10.1109/TCYB.2020.2969025 |
[17] |
SAGARNA R, ONG Y S. Concurrently searching branches in software tests generation through multitask evolution[C]//Proceedings of 2016 IEEE Symposium Series on Computational Intelligence. Washington D. C., USA: IEEE Press, 2016: 46-56.
|
[18] |
ZHOU L, FENG L, ZHONG J H, et al. A study of similarity measure between tasks for multifactorial evolutionary algorithm[C]//Proceedings of the Genetic and Evolutionary Computation Conference Companion. New York, USA: ACM Press, 2018: 39-46.
|
[19] |
GUPTA A, ONG Y S, DA B, et al. Landscape synergy in evolutionary multitasking[C]//Proceedings of 2016 IEEE Congress on Evolutionary Computation. Washington D. C., USA: IEEE Press, 2016: 112-129.
|
[20] |
LIANG J, QIAO K J, YUAN M H, et al. Evolutionary multi-task optimization for parameters extraction of photovoltaic models[J]. Energy Conversion and Management, 2020, 207: 112509-112524. DOI:10.1016/j.enconman.2020.112509 |
[21] |
CHEN Y L, ZHONG J H, FENG L, et al. An adaptive archive-based evolutionary framework for many-task optimization[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2020, 4(3): 369-384. DOI:10.1109/TETCI.2019.2916051 |
[22] |
BALI K K, GUPTA A, ONG Y S, et al. Cognizant multitasking in multiobjective multifactorial evolution: MO-MFEA-Ⅱ[J]. IEEE Transactions on Cybernetics, 2021, 51(4): 1784-1796. DOI:10.1109/TCYB.2020.2981733 |
[23] |
JIA Y H, ZHOU Y R, LIN Y, et al. A distributed cooperative co-evolutionary CMA evolution strategy for global optimization of large-scale overlapping problems[J]. IEEE Access, 2019, 7: 19821-19834. DOI:10.1109/ACCESS.2019.2897282 |
[24] |
HANSEN N. The CMA evolution strategy: a comparing review [EB/OL]. [2021-07-09]. https://link.springer.com/chapter/10.1007/3-540-32494-1_4.
|
[25] |
YUAN Y, ONG Y S, FENG L, et al. Evolutionary multitasking for multiobjective continuous optimization: benchmark problems, performance metrics and baseline results[EB/OL]. [2021-07-09]. https://arxiv.org/abs/1706.02766.
|