Designing state encoders for reinforcement learning (RL) with multiple information sources -- such as sensor measurements, time-series signals, image observations, and textual instructions -- remains underexplored and often requires manual design. We formalize this challenge as a problem of composite neural architecture search (NAS), where multiple source-specific modules and a fusion module are jointly optimized. Existing NAS methods overlook useful side information from the intermediate outputs of these modules -- such as their representation quality -- limiting sample efficiency in multi-source RL settings. To address this, we propose an LLM-driven NAS pipeline in which the LLM serves as a neural architecture design agent, leveraging language-model priors and intermediate-output signals to guide sample-efficient search for high-performing composite state encoders. On a mixed-autonomy traffic control task, our approach discovers higher-performing architectures with fewer candidate evaluations than traditional NAS baselines and the LLM-based GENIUS framework.


翻译:针对多信息源(如传感器测量值、时间序列信号、图像观测和文本指令)的强化学习状态编码器设计仍缺乏深入探索,且通常依赖人工设计。我们将此挑战形式化为复合神经架构搜索问题,其中多个源特定模块与融合模块被联合优化。现有神经架构搜索方法忽略了这些模块中间输出的有用辅助信息(如其表示质量),限制了多源强化学习场景下的样本效率。为解决此问题,我们提出一种基于大语言模型的神经架构搜索流程,其中大语言模型作为神经架构设计代理,利用语言模型先验和中间输出信号来指导样本高效搜索高性能复合状态编码器。在混合自主交通控制任务中,相较于传统神经架构搜索基线及基于大语言模型的GENIUS框架,我们的方法以更少的候选架构评估次数发现了性能更优的架构。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年9月25日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
39+阅读 · 2020年6月22日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员