Models of narrative schema knowledge have proven useful for a range of event-related tasks, but they typically do not capture the temporal relationships between events. We propose a single model that addresses both temporal ordering, sorting given events into the order they occurred, and event infilling, predicting new events which fit into an existing temporally-ordered sequence. We use a BART-based conditional generation model that can capture both temporality and common event co-occurrence, meaning it can be flexibly applied to different tasks in this space. Our model is trained as a denoising autoencoder: we take temporally-ordered event sequences, shuffle them, delete some events, and then attempt to recover the original event sequence. This task teaches the model to make inferences given incomplete knowledge about the events in an underlying scenario. On the temporal ordering task, we show that our model is able to unscramble event sequences from existing datasets without access to explicitly labeled temporal training data, outperforming both a BERT-based pairwise model and a BERT-based pointer network. On event infilling, human evaluation shows that our model is able to generate events that fit better temporally into the input events when compared to GPT-2 story completion models.


翻译:叙事系统知识模型已被证明对一系列与事件相关的任务有用,但通常无法捕捉事件之间的时间关系。 我们提出了一个单一模型,既处理时间顺序,将特定事件按其发生的顺序排序,又处理事件填充,预测适合现有时间顺序序列的新事件。 我们使用一个基于 BART 的有条件生成模型,既能反映时间性和常见事件共发,又能反映时间性和常见事件共发,这意味着可以灵活地应用到这个空间的不同任务中。 我们的模型被训练成一个解密自动编码器:我们采用时间顺序排列的事件序列,打乱它们,删除一些事件,然后试图恢复原始事件序列。 这项任务教导模型,在对一个基本假设情景中的事件了解不完全的情况下作出推断。 在时间排序任务中,我们显示我们的模型能够从现有数据集中解析事件序列,而没有获得明确标明的时间培训数据。 我们的模型比基于 BERT 的配对模型和基于 BERT 的点网络都高:我们采用时间顺序排列的事件序列序列序列序列, 洗刷它们,删除它们,删除它们,删除某些事件,然后试图恢复原始事件序列。 在比较时,人类的模型中, 比较模型显示我们的模型能够改进的模型。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
25+阅读 · 2021年6月17日
【AAAI2021】知识增强的视觉-语言预训练技术 ERNIE-ViL
专知会员服务
26+阅读 · 2021年1月29日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
71+阅读 · 2020年10月24日
因果图,Causal Graphs,52页ppt
专知会员服务
250+阅读 · 2020年4月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
3+阅读 · 2018年3月14日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员