文本生成有很多应用。例如,它可以从对话动作生成对话,将知识库的内容用语言表达出来,或从丰富的语言表征(如依赖树或抽象意义表征)生成英语句子。文本生成也在文本到文本的转换中起作用,如句子压缩、句子融合、释义、句子(或文本)简化和文本摘要。这本书提供了文本生产的神经模型的基础的概述。特别地,我们详细阐述了文本生成的神经方法的三个主要方面:顺序解码器如何学习生成足够的文本,编码器如何学习生成更好的输入表示,以及神经生成器如何考虑特定任务的目标。事实上,每个文本生成任务都提出了略有不同的挑战(例如,在生成对话回合时如何考虑对话上下文,在总结文本时如何检测和合并相关信息,或者如何生成格式良好的文本,在数据到文本生成的情况下,正确地捕获某些输入数据中包含的信息)。我们概述了一些特定于这些任务的约束,并检查现有的神经模型如何解释它们。更一般地说,本书考虑了文本到文本、意义到文本和数据到文本的转换。它的目的是为观众提供文本生产的神经方法的基本知识和路线图,让他们开始相关的工作。这本书主要针对研究人员,研究生和工业感兴趣的文本生产从不同形式的输入。

成为VIP会员查看完整内容
37

相关内容

在自然语言处理中,另外一个重要的应用领域,就是文本的自动撰写。关键词、关键短语、自动摘要提取都属于这个领域的一种应用。
【Manning新书】自然语言处理实战:深度学习应用,337页pdf,
最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
74+阅读 · 2020年10月13日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
202+阅读 · 2020年1月13日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
用深度学习做文本摘要
专知
24+阅读 · 2019年3月30日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
14+阅读 · 2022年5月6日
Arxiv
64+阅读 · 2021年6月18日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
A Survey on Deep Learning for Named Entity Recognition
Arxiv
72+阅读 · 2018年12月22日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
21+阅读 · 2018年8月30日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2010年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
相关论文
Arxiv
14+阅读 · 2022年5月6日
Arxiv
64+阅读 · 2021年6月18日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
A Survey on Deep Learning for Named Entity Recognition
Arxiv
72+阅读 · 2018年12月22日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
21+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员