直播预告 | 基于退化缓解兼容训练的热刷新模型升级在图片检索中的应用

2022 年 4 月 20 日 PaperWeekly



本期 AI Drive,我们邀请到清华大学在读硕士生张斌杰,为大家在线解读其发表在 ICLR 2022 的最新研究成果。本次报告的主题为 「基于退化缓解兼容训练的热刷新模型升级在图片检索中的应用 。对本期主题感兴趣的小伙伴,4 月 21 日(本周四)晚 7 点,我们准时相约 PaperWeekly 直播间。



直播信息



对检索系统中部署的模型进行更新迭代是提升检索精度、改善用户体验的必经之路。在传统的检索模型升级过程中,需要先用新模型离线刷新底库中的所有特征(称之为特征“回填”),再将新模型部署上线,这一过程被称之冷刷新模型升级。 大规模检索系统往往存在海量的底库图像,将其全部离线刷新一遍可能花费数周乃至数月,冷刷新模型升级存在模型迭代的时间成本高、用户体验不能得到即时改善等几大弊端。为此,作者 首次提出热刷新模型升级方案 ,借助兼容学习使得新模型可以直接部署上线,同时利用新模型在线刷新底库特征,实现检索精度的逐步爬升。

尽管现有的兼容训练算法使得热刷新模型升级成为了可能,但他们均面临刷新过程中的“模型退化”问题,即升级中检索精度的下降。为了缓解热刷新模型升级过程中的模型退化问题,作者提出了一种简单有效的正则化,即约束新->旧正样本对距离同时小于新->旧负样本以及新->新负样本对距离。此外,作者也提出一种基于不确定性的底库回填策略,可以在热刷新过程中加快提升系统精度。

论文信息


文标题:  
Hot-Refresh Model Upgrades with Regression-Free Compatible Training in Image Retrieval

收录会议: 

ICLR 2022

论文链接: 

https://openreview.net/forum?id=HTp-6yLGGX

演讲提纲


  • 研究背景

  • 难点与挑战

  • 研究方法介绍

  • 结果分析

  • 未来展望


嘉宾介绍



 张斌杰 / 清华大学硕士生 

张斌杰,清华大学计算机科学与技术专业在读硕士生,研究方向包括 Compatible Representation Learning 以及 Cross-Modality Video Understanding。目前是腾讯 ARC Lab 的实习生。


直播地址



本次直播将在 PaperWeekly 视频号和 B 站直播间进行, 扫描下方海报二维码 或点击 阅读原文 即可免费观看。

 微信视频号 

点击下方 PaperWeekly 视频号预约按钮,第一时间获取开播提醒。



 B站直播间  

https://live.bilibili.com/14884511






合作伙伴






🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


登录查看更多
0

相关内容

ICLR 2022 放出了本届会议的论文接收结果:共有 54 篇 Oral(口头报告)论文和 176 篇 Spolight 论文,论文接收总数 1095 篇,最终投稿量 3391 篇,论文接收率 32.3%。
【ICCV2021】多层次对比学习的跨模态检索方法
专知会员服务
22+阅读 · 2021年10月24日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
12+阅读 · 2021年9月13日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
26+阅读 · 2021年4月22日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
17+阅读 · 2020年11月15日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员