文本编辑模型最近已经成为seq2seq模型在单语言文本生成任务(如语法错误纠正、文本简化和样式转移)中的重要替代方案。这些任务有一个共同的特点——它们在源文本和目标文本之间表现出大量的文本重叠。

文本编辑模型利用了这一观察结果,并通过预测应用于源序列的编辑操作来生成输出。相反,seq2seq模型从头开始逐字生成输出,因此在推断时速度很慢。文本编辑模型比seq2seq模型有几个优点,包括更快的推理速度、更高的样本效率、更好的输出控制和可解释性。

本教程提供了基于文本编辑的模型的全面概述,以及分析其优缺点的当前最先进的方法。我们讨论了与部署相关的挑战,以及这些模型如何帮助减轻幻觉和偏见,这两者都是文本生成领域的紧迫挑战。

成为VIP会员查看完整内容
37

相关内容

【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
16+阅读 · 2022年6月14日
【CVPR2022】高分辨率和多样化的视频-文本预训练模型
专知会员服务
9+阅读 · 2022年3月6日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
184+阅读 · 2020年8月6日
自然语言处理中的文本表示研究
专知
0+阅读 · 2022年1月10日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
32+阅读 · 2022年5月23日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
20+阅读 · 2019年9月7日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员