Computationally Expensive High-dimensional Multiobjective Optimization via Surrogate-assisted Reformulation and Decomposition(TEVC, 2024)
基于代理辅助重构与分解的高维计算昂贵多目标优化(TP-SAEA)
源码:
https://jqlincn.github.io/
https://github.com/jqlincn/TP-SAEA
TP-SAEA 遵循 “先收敛后多样性” 原则,通过两阶段协同优化高维 EMOPs,仅需 509 次真实 FEs 即可获得优质解。
1. 基础准备:代理模型选择
代理模型 |
优势 |
劣势 |
应用阶段 |
Kriging(高斯过程) |
可量化预测不确定性,适合引导优化方向 |
高维场景下计算复杂度高(O (n³),n 为样本数) |
阶段 I(低维重构问题优化) |
径向基函数(RBF) |
对维度增加不敏感,计算效率高 |
无法提供不确定性信息 |
阶段 I(初始种群预测)、阶段 II(子问题优化) |
2. 阶段 I:收敛增强(PR-SAEA)
核心思路:将高维 EMOPs 重构为低维单目标问题(ESOP),快速逼近帕累托最优集(PS)。
(1)问题重构逻辑
- 理论依据:连续多目标问题的 PS 在决策空间中可视为 (m-1) 维流形(m 为目标数),通过参考解引导方向向量,将高维决策变量转化为低维权重变量。
- 具体操作:
- 从初始存档 A₁中选 r 个参考解(默认 r=5),构建 2r 个方向向量(每个参考解对应 2 个双向权重变量 λ)。
- 将高维决策变量 x 转化为低维权重向量 λ(维度 = 2r,通常 < 30),重构为单目标优化问题:min Z(λ)=HV(F(λ))(HV 为超体积指标,衡量解的收敛性)。
(2)优化流程
- 初始种群生成:用 RBF 模型预测重构问题的初始种群 P'(避免高维场景下大量真实 FEs 消耗)。
- 代理辅助优化:基于 P' 训练 Kriging 模型,结合差分进化(DE)算法优化 ESOP,获得最优权重 λ*。
- 映射回高维空间:将 λ* 映射为高维 EMOPs 的候选解,通过 NSGA-II 环境选择筛选 k 个精英解(默认 k=5),用真实 FEs 评估并更新 A₁。
3. 阶段 II:多样性增强(DE-SAEA)
核心思路:通过决策变量分解,探索未充分搜索区域,弥补阶段 I 的 “贪心收敛” 导致的多样性损失。
(1)变量分解策略
- 数据划分:从 A₁中选 nₛ个解(nₛ=min (当前 FEs 数,300)),按 NSGA-II 分层筛选出 “收敛优解集 P₁” 和 “收敛差解集 P₂”。
- 变量排序:计算 P₁与 P₂在每个决策变量上的均值差,按绝对值降序排序,将前⌊d/2⌋个变量归为 x¹(影响收敛的关键变量),剩余归为 x²(次要变量)。
(2)子问题优化与重构
- 基于 x¹ 和 x² 分别构建数据集 T₁、T₂,训练 2 组独立 RBF 模型。
- 用代理辅助粒子群优化(SAPSO)分别优化 x¹ 和 x²,得到 2 组低维解 P₁' 和 P₂'。
- 拼接 P₁' 与 P₂',恢复为完整高维解,用真实 FEs 评估并更新 A₁,直至达到最大 FEs(509)。
Balancing Objective Optimization and Constraint Satisfaction in Expensive Constrained Evolutionary Multi-Objective Optimization(TEVC, 2023)
平衡昂贵约束进化多目标优化中的目标优化与约束满足
源码:https://github.com/HandingWangXDGroup/KTS
ref:【论文解析】TEVC 2023 平衡昂贵约束进化多目标优化中的目标优化与约束满足 - HZ-VUW的文章 - 知乎 https://zhuanlan.zhihu.com/p/647179617
1. 核心思想
通过自适应切换两种搜索模式,动态调整约束代理模型的使用频率,减少其近似误差影响,同时平衡目标优化收敛速度与约束满足的可行性。
2. 算法框架
(1)初始化
- 采用拉丁超立方抽样生成N个初始解,通过昂贵函数评估后存入训练数据集A1;
- 将初始解分别复制到 KTA2(用于无约束搜索)的收敛档案(CA)、多样性档案(DA),以及 KCCMO(用于约束搜索)的两个种群P1、P2。
(2)自适应切换策略
通过分析目标优化方向与约束违反度(CV)最小化方向的相关性,将关系分为三类,动态选择搜索模式:
相关性类型 |
判断标准(Pearson 相关系数ρ) |
选择的搜索模式 |
核心逻辑 |
强正相关 |
ρ>T(T=0.6为阈值) |
无约束代理辅助搜索 |
接近无约束 PF 时 CV 同步降低,无需约束代理,避免误差 |
弱相关 |
−ϕ≤ρ≤T(ϕ=0.2为阈值) |
随机切换两种模式 |
单一模式易浪费 FEs 或增加误差,需平衡目标与约束 |
强负相关 |
ρ<−ϕ |
约束代理辅助搜索 |
目标优化会导致 CV 升高,必须依赖约束代理定位可行域 |
- 相关性计算:通过收敛指标Q(基于Iϵ+指标,Q越小表示解对目标优化贡献越大)与 CV 值,对精英解(从A1中选前μ=20个Q最小解)计算 Pearson 系数。
(3)两种搜索模式
① 无约束代理辅助搜索模式(基于 KTA2)
- 核心操作:不构建约束代理模型,仅用A1训练目标函数的 Kriging 代理模型;
- 优势:快速推动种群穿越不可行域,避免约束代理误差,同时减少代理构建成本;
- 输出:新采样解O,加入A1并更新 CA、DA。
② 约束代理辅助搜索模式(基于 KCCMO,扩展自 CCMO)
- 数据选择策略:从A1中筛选约束训练数据Dcon,聚焦约束 PF 附近样本,提升约束代理精度,避免两类错误:
- 可行性选择(FS):选可行解或低 CV 解,减少 “可行解误判为不可行”;
- 多样性选择(DS):选对种群多样性贡献大的不可行解,减少 “高多样性不可行解误判为可行”;
- 收敛选择(CS):选对目标收敛贡献大的不可行解,减少 “高收敛性不可行解误判为可行”;
- 代理模型构建:用A1训练m个目标函数 Kriging 模型,用Dcon训练n个约束函数 Kriging 模型;
- 改进的填充采样准则:
- 修正 SPEA2 适应度函数,将 “到k近邻距离” 替换为 “到P2中可行非支配解的距离”;
- 用 K-means 在目标空间聚类候选解,每个聚类选适应度最小的解进行昂贵评估,保证多样性;
- 输出:新采样解O,加入A1并更新P1、P2。
(4)终止条件
重复 “自适应切换 - 搜索” 流程,直至昂贵函数评估次数(FEs)达到上限(实验中设为 300),最终输出A1中的可行非支配解。
A Kriging-Assisted Two-Archive Evolutionary Algorithm for Expensive Many-Objective Optimization(TEVC, 2021)
【NICE Seminar(2021-10-7) :KTA2:在线数据驱动的高维多目标双档算法(西安电子科技大学宋振寿)】 https://www.bilibili.com/video/BV11q4y1R72m/