这份讲义系统性地阐述了检索增强生成(RAG)技术,其核心思想是通过为语言模型(LM)检索外部知识库中的相关信息来增强其生成能力,从而解决传统参数化LM的“幻觉”、知识更新滞后和长尾知识匮乏等局限性。RAG系统包含三个关键部分:数据存储(海量文档的收集与处理)、检索器(包括稀疏、密集和重排器等类型,用于查找相关文档)以及语言模型(利用检索到的文档生成最终答案)。讲义详细介绍了从经典的输入增强方法(如RAG)到更先进的中间融合(如RETRO)和自省式检索(如Self-RAG)等多种架构,并强调了RAG在提升答案准确性、可验证性和降低幻觉方面的显著效果,是当前将大语言模型与外部知识连接起来的关键技术。

成为VIP会员查看完整内容
0

相关内容

大型语言模型(LLMs),附Slides与视频
专知会员服务
69+阅读 · 2024年6月30日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
86+阅读 · 2024年5月3日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
专知会员服务
113+阅读 · 2021年9月22日
【干货书】实体搜索,Entity-Oriented Search,358页pdf
专知会员服务
35+阅读 · 2021年4月9日
【干货书】Python数据科学分析,413页pdf
专知会员服务
93+阅读 · 2020年8月22日
【2020新书】高级Python编程,620页pdf
专知会员服务
240+阅读 · 2020年7月31日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
【KDD2020】图神经网络:基础与应用,322页ppt
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
万字长文概述NLP中的深度学习技术
全球人工智能
12+阅读 · 2019年2月28日
基于图片内容的深度学习图片检索(一)
七月在线实验室
20+阅读 · 2017年10月1日
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
大型语言模型(LLMs),附Slides与视频
专知会员服务
69+阅读 · 2024年6月30日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
86+阅读 · 2024年5月3日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
专知会员服务
113+阅读 · 2021年9月22日
【干货书】实体搜索,Entity-Oriented Search,358页pdf
专知会员服务
35+阅读 · 2021年4月9日
【干货书】Python数据科学分析,413页pdf
专知会员服务
93+阅读 · 2020年8月22日
【2020新书】高级Python编程,620页pdf
专知会员服务
240+阅读 · 2020年7月31日
相关资讯
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
【KDD2020】图神经网络:基础与应用,322页ppt
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
万字长文概述NLP中的深度学习技术
全球人工智能
12+阅读 · 2019年2月28日
基于图片内容的深度学习图片检索(一)
七月在线实验室
20+阅读 · 2017年10月1日
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员