近期,自动化机器学习(AutoML)技术被引入,用以根据数据特定方式设计协同过滤(CF)模型。然而,现有的工作或是搜索架构,或是搜索超参数,而忽略了它们之间的内在关系,应该一同考虑。这激发了我们考虑一种结合超参数和架构搜索的方法来设计CF模型。但由于搜索空间巨大和评估成本高昂,这并不容易。为解决这些挑战,我们通过对单个超参数的全面了解,筛选出有用的超参数选择来减少搜索空间。接下来,我们提出了一个两阶段搜索算法,从减少的空间中找到合适的配置。在第一阶段,我们利用从子样本数据集中获取的知识来减少评估成本;在第二阶段,我们高效地在整个数据集上对顶级候选模型进行微调。在真实世界数据集上的大量实验表明,与手工设计的和以前搜索的模型相比,我们的模型可以达到更好的性能。此外,消融和案例研究都证明了我们搜索框架的有效性。

成为VIP会员查看完整内容
21

相关内容

【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
18+阅读 · 2023年1月18日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
19+阅读 · 2022年4月20日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
14+阅读 · 2021年6月26日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
34+阅读 · 2020年11月29日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年9月8日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
324+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
18+阅读 · 2023年1月18日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
19+阅读 · 2022年4月20日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
14+阅读 · 2021年6月26日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
34+阅读 · 2020年11月29日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员