Although considerable attention has been given to neural ranking architectures recently, far less attention has been paid to the term representations that are used as input to these models. In this work, we investigate how two pretrained contextualized language models (ELMo and BERT) can be utilized for ad-hoc document ranking. Through experiments on TREC benchmarks, we find that several existing neural ranking architectures can benefit from the additional context provided by contextualized language models. Furthermore, we propose a joint approach that incorporates BERT's classification vector into existing neural models and show that it outperforms state-of-the-art ad-hoc ranking baselines. We call this joint approach CEDR (Contextualized Embeddings for Document Ranking). We also address practical challenges in using these models for ranking, including the maximum input length imposed by BERT and runtime performance impacts of contextualized language models.


翻译:虽然最近相当重视神经排位结构,但对于作为这些模型投入的术语表述却很少注意。在这项工作中,我们调查了如何利用两种经过预先培训的背景语言模型(ELMO和BERT)来进行临时文件排位。通过对TREC基准的实验,我们发现现有的若干神经排位结构可以从背景语言模型提供的额外背景中受益。此外,我们建议采取联合办法,将BERT的分类矢量纳入现有的神经模型,并表明它比最新的特别排序基线要好。我们称之为CEDR(文件排位的逻辑化嵌床)。我们还解决了在使用这些模型进行排位时所面临的实际挑战,包括BERT规定的最大投入长度以及背景语言模型的运行时间性影响。

3
下载
关闭预览

相关内容

BERT进展2019四篇必读论文
专知会员服务
64+阅读 · 2020年1月2日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
89+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
5+阅读 · 2019年10月31日
Arxiv
12+阅读 · 2018年9月15日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
Top
微信扫码咨询专知VIP会员