华为诺亚开源贝叶斯优化库:超参数调优河伯、组合优化器CompBO

2021 年 12 月 22 日 PaperWeekly


©作者 | 陈萍、杜伟

来源 | 机器之心


华为诺亚开源了一个贝叶斯优化的库,该库包含三个部分:河伯、T-LBO、CompBO。


贝叶斯优化可以说是一种黑盒优化算法,该算法用于求解表达式未知函数的极值问题。因其具有极强的样本有效性,近年来被广泛使用,研究者只需较少地迭代次数,即可得到一个较好的结果,因此可用于机器学习模型算法调参。

近日,华为诺亚开源了一个新的关于贝叶斯优化的库,该库可用于低维和高维领域的贝叶斯优化,主要包含:
  • 河伯(Heteroscedastic Evolutionary Bayesian Optimization,HEBO):异方差演化贝叶斯优化,可用于超参数调优,华为诺亚凭借该算法赢得 NeurIPS BBO 竞赛冠军;

  • T-LBO:一种将深度度量学习与潜在空间贝叶斯优化相结合以实现高维优化的算法,该算法可以减少 97% 的数据需求;
  • CompBO:使用组合优化器进行贝叶斯优化。


项目地址:
https://github.com/huawei-noah/HEBO

河伯


河伯算法是华为诺亚方舟决策与推理(DMnR)实验室开发的贝叶斯优化库。该算法击败了 NVIDIA、IBM、Jetbrain 等,以 93.519 得分赢得了 AI 国际顶会 NeurIPS 2020 的黑盒优化竞赛冠军。

HEBO 是与前 5 名竞争对手之间差异最大的算法,以非常大的优势获胜。下面是比赛结果的截图:


完整榜单:
https://bbochallenge.com/leaderboard/

T-LBO 算法

该算法出自论文《High-Dimensional Bayesian Optimisation with Variational Autoencoders and Deep Metric Learning》,全篇 42 页,研究者来自华为诺亚方舟实验室。


论文地址:
https://arxiv.org/pdf/2106.03609.pdf

研究者提出了一种基于深度度量学习的方法,以使用变分自编码器(VAE)在高维结构化空间中执行贝叶斯优化。通过扩展监督深度度量学习的想法,他们解决了高维 VAE 贝叶斯优化中长期存在的一个问题,即如何将判别式隐空间作为归纳偏置来执行。重要的是,研究者仅使用以往工作的 1% 的标记数据就实现了这种归纳偏置,显示出了所提方法面向样本的高效性。

在实验中,研究者展示了在真实世界高维黑盒优化问题(包括属性引导的分子生成)上的 SOTA 结果。他们希望,本文展示的结果可以作为实现高效高维贝叶斯优化的指导原则。


利用组合优化器做贝叶斯优化(CompBO)

这是一篇发表在机器学习研究杂志 JMLR 2021 上的论文,标题为《Are We Forgetting about Compositional Optimisers in Bayesian Optimisation?》,全篇共 78 页。研究者来自华为英国研发中心。


论文地址:

https://www.jmlr.org/papers/volume22/20-1422/20-1422.pdf

项目地址: 

https://github.com/huawei-noah/noah-research/tree/CompBO/BO/HEBO/CompBO


贝叶斯优化为全局优化提供了一种面向样本高效的方法。在这个框架内,采集函数(acquisition function)的最大化是决定性能的关键因素。但是,由于采集函数往往是非凸的,因此不容易优化,导致其最大化变得复杂。

华为的这篇论文对最大化采集函数的方法进行了全面的实证研究。此外,通过为流行的采集函数推导出全新但数学上等效的组合形式,研究者将采集函数的最大化任务重新定义为组合优化问题,从而能够从领域大量文献中获益。他们特别强调了 3,958 个单独实验中采集函数最大化组合方法的实证优势,这些实验包括组合优化任务和贝叶斯任务。

鉴于采集函数最大化方法的通用性,研究者认为采用组合优化器有可能在当前贝叶斯优化应用的所有领域内实现性能提升。




特别鸣谢

感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。




更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

登录查看更多
3

相关内容

专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
11+阅读 · 2021年5月26日
【AAAI2021】组合对抗攻击
专知会员服务
47+阅读 · 2021年2月17日
使用深度学习,通过一个片段修饰进行分子优化
可定制算法和环境,这个开源强化学习框架火了
机器之心
1+阅读 · 2021年11月20日
17种深度强化学习算法用Pytorch实现
新智元
30+阅读 · 2019年9月16日
比xgboost强大的LightGBM:调参指南(带贝叶斯优化代码)
数据挖掘入门与实战
23+阅读 · 2018年4月9日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
11+阅读 · 2021年5月26日
【AAAI2021】组合对抗攻击
专知会员服务
47+阅读 · 2021年2月17日
相关基金
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员