Data-driven evolutionary algorithms has shown surprising results in addressing expensive optimization problems through robust surrogate modeling. Though promising, existing surrogate modeling schemes may encounter limitations in complex optimization problems with many sub-objectives, which rely on repeated and tedious approximation. To address such technical gap, we propose Q-MetaSur as a plug-and-play surrogate modeling scheme capable of providing unified and generalized surrogate learning. Specifically, we consider multi-task-multi-objective optimization~(MTMOO) in offline setting. Several key designs are proposed: 1) we transform objective approximation into sequence-to-sequence modeling where MTMOO problem can be represented by tenxual tokenization. To operate under such auto-regressive modeling, we introduce a Large Language Model-based surrogate model that first encodes a MTMOO instance and then decodes objective values of unseen decision variables. To ensure stability in training the proposed model, we propose a two-stage offline training strategy that operates as a synergy of supervised tuning and RL fine-tuning, which first exploits offline dataset to fit existing knowledge and then leverages RL to enhance model's generalization performance. Extensive empirical results on the CEC2019 benchmark demonstrate that Q-MetaSur not only outperforms representative surrogate baselines in objective approximation accuracy, but also helps underlying evolutionary algorithms achieve both desired optimization convergence and improved pareto optimality.


翻译:数据驱动进化算法通过鲁棒的代理建模在处理昂贵优化问题上已展现出显著效果。尽管前景广阔,现有代理建模方法在面对具有多个子目标的复杂优化问题时仍存在局限,这些问题依赖于重复且繁琐的近似过程。为填补这一技术空白,我们提出Q-MetaSur作为一种即插即用的代理建模方案,能够提供统一且泛化的代理学习。具体而言,我们考虑离线环境下的多任务多目标优化(MTMOO)。本文提出了若干关键设计:1)将目标近似转化为序列到序列建模,其中MTMOO问题可通过文本标记化表示;为在此自回归建模框架下运行,我们引入基于大语言模型的代理模型,该模型首先编码MTMOO实例,随后解码未见决策变量的目标值。为确保所提模型训练的稳定性,我们提出一种两阶段离线训练策略,该策略融合监督微调与强化学习微调,首先利用离线数据集拟合现有知识,再借助强化学习提升模型的泛化性能。在CEC2019基准测试上的大量实验结果表明,Q-MetaSur不仅在目标近似精度上优于代表性代理基线方法,还能帮助底层进化算法同时实现理想的优化收敛性与帕累托最优性提升。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年3月29日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
26+阅读 · 2020年10月15日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员