文本排序的目标是生成从语料库检索到的有序文本列表,以响应特定任务的查询。虽然文本排序最常见的形式是搜索,但在许多自然语言处理应用程序中也可以找到该任务的实例。

本书提供了Transformer神经网络架构的文本排序的概述,其中BERT是最著名的例子。毫不夸张地说,Transformer和自监督预训练的结合彻底改变了自然语言处理(NLP)、信息检索(IR)等领域。在文本排名的上下文中,这些模型在许多领域、任务和设置中产生高质量的结果。

在这项综述中,我们提供了现有工作的综合,作为希望更好地理解如何将transformers应用于文本排序问题的从业者和希望在这一领域继续工作的研究人员的单一切入点。我们涵盖了广泛的现代技术,分为两个高级类别:在多阶段排名体系结构中执行重新排名的transformer模型,以及尝试直接执行排名的密集表示。有许多例子属于第一类,包括基于相关性分类的方法、来自多个文本片段的证据聚合、语料库分析和序列到序列模型。虽然第二类方法还没有得到很好的研究,但使用transformers进行表示学习是一个新兴的和令人兴奋的方向,必将引起更多的关注。在我们的调研中,有两个主题贯穿始终:处理长文档的技术(在NLP中使用的典型逐句处理方法之外),以及处理有效性(结果质量)和效率(查询延迟)之间权衡的技术。

尽管transformer架构和预训练技术是最近的创新,但它们如何应用于文本排序的许多方面已经被比较好地理解,并代表了成熟的技术。然而,仍然存在许多开放的研究问题,因此,除了为文本排序预先设定训练transformers的基础之外,该调研还试图预测该领域的发展方向。

https://www.zhuanzhi.ai/paper/fe2037d3186f4dd1fe3c3ea1fb69f79e

成为VIP会员查看完整内容
68

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
64+阅读 · 2020年12月24日
专知会员服务
112+阅读 · 2020年12月9日
【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
112+阅读 · 2020年11月7日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
24+阅读 · 2020年8月19日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
137+阅读 · 2020年3月1日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
从经典结构到改进方法,神经网络语言模型综述
机器之心
3+阅读 · 2019年7月23日
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
2017深度学习NLP进展与趋势
全球人工智能
5+阅读 · 2017年12月19日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
22+阅读 · 2020年9月16日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关VIP内容
专知会员服务
64+阅读 · 2020年12月24日
专知会员服务
112+阅读 · 2020年12月9日
【2020新书】深度学习自然语言处理简明导论,69页pdf
专知会员服务
112+阅读 · 2020年11月7日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
24+阅读 · 2020年8月19日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
137+阅读 · 2020年3月1日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
微信扫码咨询专知VIP会员