Transformer!「预训练变换器文本排序」首篇综述书,155页pdf概述BERT类模型文本检索进展

2021 年 3 月 18 日 专知

首篇关于Transformer文本排序的书,值的关注!



文本排序的目标是生成从语料库检索到的有序文本列表,以响应特定任务的查询。虽然文本排序最常见的形式是搜索,但在许多自然语言处理应用程序中也可以找到该任务的实例。


本书提供了Transformer神经网络架构的文本排序的概述,其中BERT是最著名的例子。毫不夸张地说,Transformer和自监督预训练的结合彻底改变了自然语言处理(NLP)、信息检索(IR)等领域。在文本排名的上下文中,这些模型在许多领域、任务和设置中产生高质量的结果。


在这项综述中,我们提供了现有工作的综合,作为希望更好地理解如何将transformers应用于文本排序问题的从业者和希望在这一领域继续工作的研究人员的单一切入点。我们涵盖了广泛的现代技术,分为两个高级类别:在多阶段排名体系结构中执行重新排名的transformer模型,以及尝试直接执行排名的密集表示。有许多例子属于第一类,包括基于相关性分类的方法、来自多个文本片段的证据聚合、语料库分析和序列到序列模型。虽然第二类方法还没有得到很好的研究,但使用transformers进行表示学习是一个新兴的和令人兴奋的方向,必将引起更多的关注。在我们的调研中,有两个主题贯穿始终:处理长文档的技术(在NLP中使用的典型逐句处理方法之外),以及处理有效性(结果质量)和效率(查询延迟)之间权衡的技术。


尽管transformer架构和预训练技术是最近的创新,但它们如何应用于文本排序的许多方面已经被比较好地理解,并代表了成熟的技术。然而,仍然存在许多开放的研究问题,因此,除了为文本排序预先设定训练transformers的基础之外,该调研还试图预测该领域的发展方向。


https://www.zhuanzhi.ai/paper/fe2037d3186f4dd1fe3c3ea1fb69f79e


引言


文本排序的目标是生成从语料库检索到的有序文本列表,以响应特定任务的查询。文本排序最常见的形式是搜索,搜索引擎(也称为检索系统)生成一个文本排序列表(web页面、科学论文、新闻文章、tweet等),根据与用户查询的估计相关性排序。在这个上下文中,相关的文本是那些“关于”用户请求的主题并处理用户的信息需求的文本。信息检索(IR)的研究人员称这为ad hoc检索问题。


使用关键字搜索,也称为关键字查询(例如,在web上),用户通常在搜索框中输入一些查询词(例如,在浏览器中),然后返回包含排序文本表示的结果。这些结果被称为排名列表,命中列表,命中,“十个蓝色链接”,或搜索引擎结果页面(serp)。排序文本的表示通常包括标题、相关的元数据、从文本本身提取的内容(例如,突出显示用户查询词的关键字上下文摘要),以及到原始源的链接。虽然有很多文本排序问题的例子(见1.1节),但这个特定的场景是普遍存在的,无疑对所有读者来说都是熟悉的。


本书提供了一种称为transformers的神经网络体系结构的文本排序概述,其中BERT(来自transformers的双向编码器表示)[Devlin et al., 2019],谷歌的发明,是最著名的例子。毫不夸张地说,BERT彻底改变了自然语言处理(NLP)和信息检索(IR),以及更广泛地说,人类语言技术(HLT),一个包罗万象的术语,包括处理、分析和以其他方式操纵(人类)语言数据的技术。在文本排序方面,BERT提供的结果无疑比之前的结果质量更好。这是一个强大的和广泛复制的实证结果,在许多文本排序任务,领域和问题公式。




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PTR” 就可以获取Transformer!「预训练变换器文本排序」首篇综述书,155页pdf概述BERT类模型文本检索进展》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
59+阅读 · 2021年5月28日
《多任务学习》最新综述论文,20页pdf
专知会员服务
121+阅读 · 2021年4月6日
【ECIR2021】信息检索技术进展: 从词袋到BERT,230页ppt
专知会员服务
54+阅读 · 2021年3月30日
「深度图像检索: 2012到2020」大综述论文,21页pdf
专知会员服务
41+阅读 · 2021年1月30日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
最新《知识图谱:构建到应用》2020大综述论文,261页pdf
专知会员服务
283+阅读 · 2020年10月6日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
178+阅读 · 2020年9月7日
神经机器阅读理解最新综述:方法和趋势
PaperWeekly
15+阅读 · 2019年7月25日
自然语言处理中注意力机制综述
Python开发者
11+阅读 · 2019年1月31日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
2017深度学习NLP进展与趋势
云栖社区
7+阅读 · 2017年12月17日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
23+阅读 · 2020年9月16日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
3+阅读 · 2019年9月5日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2021年5月28日
《多任务学习》最新综述论文,20页pdf
专知会员服务
121+阅读 · 2021年4月6日
【ECIR2021】信息检索技术进展: 从词袋到BERT,230页ppt
专知会员服务
54+阅读 · 2021年3月30日
「深度图像检索: 2012到2020」大综述论文,21页pdf
专知会员服务
41+阅读 · 2021年1月30日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
最新《知识图谱:构建到应用》2020大综述论文,261页pdf
专知会员服务
283+阅读 · 2020年10月6日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
178+阅读 · 2020年9月7日
相关论文
Arxiv
102+阅读 · 2021年6月8日
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
23+阅读 · 2020年9月16日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
3+阅读 · 2019年9月5日
Top
微信扫码咨询专知VIP会员