Uncertainty quantification (UQ) methods for Large Language Models (LLMs) encompass a variety of approaches, with two major types being particularly prominent: information-based, which focus on model confidence expressed as token probabilities, and consistency-based, which assess the semantic relationship between multiple outputs generated using repeated sampling. Several recent methods have combined these two approaches to boost UQ performance. However, they sometimes fail to outperform much simpler baseline methods. Our work discusses the fundamental approach to constructing uncertainty measures that directly links uncertainty with the minimum Bayes risks achieved by LLM decoding. Building on these findings, we propose a novel approach to integrating model confidence with output consistency, resulting in a family of efficient and robust UQ methods. Our investigation reveals distinctive characteristics of LLMs as probabilistic models, which help to explain why these UQ methods underperform in certain tasks. Based on these findings, we propose a new way of synthesizing model confidence and output consistency, leading to a family of efficient and robust UQ methods. We evaluate our approach across various tasks such as question answering, abstractive summarization, and machine translation, demonstrating sizable improvements over state-of-the-art UQ approaches.


翻译:针对大语言模型(LLMs)的不确定性量化(UQ)方法包含多种途径,其中两类主要方法尤为突出:基于信息的方法,侧重于以词元概率表示的模型置信度;以及基于一致性的方法,通过重复采样生成的多个输出之间的语义关系进行评估。近期若干方法尝试结合这两种途径以提升UQ性能,但有时仍无法超越更简单的基线方法。本研究探讨了构建不确定性度量的基本方法,将不确定性与LLM解码实现的最小贝叶斯风险直接关联。基于这些发现,我们提出一种整合模型置信度与输出一致性的新方法,由此衍生出一系列高效且稳健的UQ方法。研究揭示了LLMs作为概率模型的独特性质,这有助于解释为何现有UQ方法在某些任务中表现欠佳。我们在问答、抽象摘要和机器翻译等多种任务上评估了所提方法,结果表明其较当前最先进的UQ方法取得了显著改进。

0
下载
关闭预览

相关内容

【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员