文本生成旨在为下游任务生成类人的自然语言输出。它涵盖了广泛的应用,如机器翻译,文档摘要,对话生成等。近年来,基于深度神经网络的端到端体系结构被广泛采用。端到端方法将所有子模块(过去由复杂的手工规则设计)合并成一个整体的编码-解码体系结构。如果有足够的训练数据,它就能够实现最先进的性能,同时避免了对语言/领域相关知识的需求。然而,众所周知,深度学习模型极度需要数据,由它们生成的文本通常缺乏多样性、可解释性和可控性。因此,在实际应用中,很难相信他们的输出。深度潜变量模型,通过指定中间潜过程的概率分布,提供了一种解决这些问题的潜在方法,同时保持深度神经网络的表达能力。这篇论文介绍了深度潜在变量模型是如何在文本生成的标准编码器-解码器模型之上改进的。