We humans regularly ask for clarification if we are confused when discussing the visual world, yet the commonplace requirement in visiolinguistic problems like Visual Dialog, VQA, and Referring Expression Comprehension is to force a decision based on a single, static language input. Since this assumption does not match human practice, we relax it and allow our model to request new language inputs to refine the prediction for a task. Through the exemplar task of referring expression comprehension, we formalize and motivate the problem, introduce an evaluation method, and propose \textit{Iterative Multiplication of Probabilities for Re-query Of Verbal Expressions} (IMPROVE) -- a re-query method that updates the model's prediction across multiple queries. We demonstrate IMPROVE on two different referring expression comprehension models and show it can improve accuracy by up to 6.23% without additional training or modification to the model's architecture.


翻译:我们人类在讨论视觉世界时经常要求澄清我们是否感到困惑,然而在视觉对话、VQA和引用表达理解等语言学问题方面常见的要求是强制作出基于单一静态语言输入的决定。由于这一假设与人类实践不符,我们放松了这一假设,并允许我们的模型要求新的语言投入,以完善对任务的预测。通过参考表达理解的示范任务,我们正式确定和激励问题,引入一种评估方法,并提出“语言表达再询问概率的逻辑乘法”(IMPROVE)——一种重新要求方法,以更新模型对多个问题的预测。我们用两种不同的表达理解模型演示IMPROVE,并表明它可以提高精度,达到6.23%,而无需对模型结构进行额外的培训或修改。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年7月14日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员