Prior work on pretrained sentence embeddings and benchmarks focus on the capabilities of stand-alone sentences. We propose DiscoEval, a test suite of tasks to evaluate whether sentence representations include broader context information. We also propose a variety of training objectives that makes use of natural annotations from Wikipedia to build sentence encoders capable of modeling discourse. We benchmark sentence encoders pretrained with our proposed training objectives, as well as other popular pretrained sentence encoders on DiscoEval and other sentence evaluation tasks. Empirically, we show that these training objectives help to encode different aspects of information in document structures. Moreover, BERT and ELMo demonstrate strong performances over DiscoEval with individual hidden layers showing different characteristics.


翻译:我们提议DiscoEval(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval))(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval))(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval)(DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) (DiscoEval) ) (Dreal) (DiscoEval) (Dreal) ) (一个测试系列任务) (DiscoEval) (一个测试,这是一套任务,用以评价一个测试一组任务,用以评价刑罚是否包括更广泛的背景信息。我们还提出一系列任务,用以评估文件结构中包含内容。我们提议一系列任务。我们还提出一系列任务,用以评价一系列任务,我们建议一系列任务,用以评估这些任务,用以评估这些任务,用以评估这些训练目的) 用来算算算算算算算算算算算算算算法),用以算算算算法),用以算算法),用以算算出文件结构中的资料。此外,我们还提出各种资料结构。此外,我们还提出各种资料。此外,我们还提出各种资料结构结构结构结构。此外,我们建议,我们建议。此外,我们建议。此外,我们还提出许多种。此外,我们还提议。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
5+阅读 · 2018年6月4日
VIP会员
相关VIP内容
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员