最近,自然语言处理领域的进步引发了adhoc搜索任务的复兴。特别是,大型上下文化语言建模技术,如BERT,已经为排序模型配备了比以前的单词袋(BoW)模型更深入的语言理解能力。将这些技术应用到新任务中是很棘手的,需要深度学习框架的知识,以及重要的脚本和数据分析。在这个搜索教程中,我们将从基本的检索原则建立到最新的神经排序技术。我们提供古典(例如,BoW),现代(例如,排序学习)和当代(例如,BERT搜索排名和重新排名技术的背景。进一步,我们详细说明并演示了如何以一种新的声明式的实验风格,以PyTerrier和OpenNIR搜索工具包为例,轻松地实验性地将这些方法应用到新的搜索任务中。

本教程对参与者来说是交互式的;它被分成几个部分,每个部分都是使用在谷歌协作平台上运行的准备好的Jupyter进行解释性演示和实践活动。

在本教程结束时,学员将能够轻松地访问经典的倒排索引数据结构,构建声明式检索管道,并使用最先进的神经排序模型进行实验。

成为VIP会员查看完整内容
54

相关内容

专知会员服务
38+阅读 · 2021年5月18日
专知会员服务
62+阅读 · 2021年2月4日
最新LightGBM进展介绍报告,39页ppt
专知会员服务
29+阅读 · 2021年1月15日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
30页干货PPT,小白也能秒懂Word2Vec
七月在线实验室
7+阅读 · 2019年8月26日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
实战 | BERT fine-tune 终极实践教程
AI科技评论
3+阅读 · 2018年11月26日
干货 | BERT fine-tune 终极实践教程
AINLP
40+阅读 · 2018年11月24日
Arxiv
0+阅读 · 2021年5月20日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2019年8月19日
VIP会员
相关VIP内容
专知会员服务
38+阅读 · 2021年5月18日
专知会员服务
62+阅读 · 2021年2月4日
最新LightGBM进展介绍报告,39页ppt
专知会员服务
29+阅读 · 2021年1月15日
【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
相关资讯
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
30页干货PPT,小白也能秒懂Word2Vec
七月在线实验室
7+阅读 · 2019年8月26日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
实战 | BERT fine-tune 终极实践教程
AI科技评论
3+阅读 · 2018年11月26日
干货 | BERT fine-tune 终极实践教程
AINLP
40+阅读 · 2018年11月24日
微信扫码咨询专知VIP会员