随着多模态大语言模型(Multimodal Large Language Models, MLLMs)的广泛应用,使其能够适配多样化的用户需求变得愈发重要。本文研究了通过受控解码(controlled decoding)对 MLLMs 进行适配。为此,我们提出了首个用于 MLLMs 的奖励引导解码(reward-guided decoding)方法,并展示了其在改进视觉对齐(visual grounding)方面的应用。 我们的方法核心是为视觉对齐构建奖励模型,并利用这些模型来引导 MLLM 的解码过程。具体而言,我们构建了两个独立的奖励模型,分别控制模型输出中的目标精度(object precision)目标召回率(recall)。该方法使 MLLM 的推理过程能够在推理时(on-the-fly)实现可控性,主要体现在两方面: 1. 允许用户在解码过程中动态调整各奖励函数的重要性,从而在图像描述任务中实现目标精度与召回率之间的权衡; 1. 允许用户控制解码时的搜索广度,从而在测试时计算量与视觉对齐程度之间实现权衡。

我们在标准的目标幻觉(object hallucination)基准上评估了该方法,结果表明:该方法不仅显著提升了对 MLLM 推理过程的可控性,还在性能上持续优于现有的幻觉缓解方法。

成为VIP会员查看完整内容
1

相关内容

【斯坦福大学Xiang Lisa Li博士论文】控制语言模型
【CVPR2023】面向自监督视觉表示学习的混合自编码器
专知会员服务
25+阅读 · 2023年4月3日
【CVPR2023】基于多标签证据学习的开放集行为识别
专知会员服务
27+阅读 · 2023年3月24日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
专知会员服务
16+阅读 · 2021年7月7日
专知会员服务
30+阅读 · 2021年4月5日
【AAAI2021】基于内容迁移的无监督领域自适应语义分割
专知会员服务
18+阅读 · 2020年12月25日
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
17+阅读 · 2020年4月20日
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
AAAI 2019 | 基于分层强化学习的关系抽取
PaperWeekly
20+阅读 · 2019年3月27日
【CPS】社会物理信息系统(CPSS)及其典型应用
产业智能官
16+阅读 · 2018年9月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
476+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
173+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【斯坦福大学Xiang Lisa Li博士论文】控制语言模型
【CVPR2023】面向自监督视觉表示学习的混合自编码器
专知会员服务
25+阅读 · 2023年4月3日
【CVPR2023】基于多标签证据学习的开放集行为识别
专知会员服务
27+阅读 · 2023年3月24日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
专知会员服务
16+阅读 · 2021年7月7日
专知会员服务
30+阅读 · 2021年4月5日
【AAAI2021】基于内容迁移的无监督领域自适应语义分割
专知会员服务
18+阅读 · 2020年12月25日
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
17+阅读 · 2020年4月20日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员