In recent years, several high-performance conversational systems have been proposed based on the Transformer encoder-decoder model. Although previous studies analyzed the effects of the model parameters and the decoding method on subjective dialogue evaluations with overall metrics, they did not analyze how the differences of fine-tuning datasets affect on user's detailed impression. In addition, the Transformer-based approach has only been verified for English, not for such languages with large inter-language distances as Japanese. In this study, we develop large-scale Transformer-based Japanese dialogue models and Japanese chit-chat datasets to examine the effectiveness of the Transformer-based approach for building chit-chat dialogue systems. We evaluated and analyzed the impressions of human dialogues in different fine-tuning datasets, model parameters, and the use of additional information.


翻译:近年来,根据变换器编码器-解码器模型,提出了若干高性能对话系统,虽然以前的研究分析了模型参数和解码方法对主观对话评价的影响,并用总体指标分析,但没有分析微调数据集的差异如何影响用户的详细印象,此外,变换器方法只对英语进行了核实,对语言与日语之间距离很远的语文没有进行验证。在本研究中,我们开发了大规模变换器日本对话模型和日本热聊天数据集,以审查以变换器为基础的建立奇特聊天对话系统的方法的有效性。我们评估并分析了不同微调数据集、模型参数和额外信息使用过程中人类对话的印象。

0
下载
关闭预览

相关内容

专知会员服务
34+阅读 · 2021年8月19日
【ICLR2021】彩色化变换器,Colorization Transformer
专知会员服务
9+阅读 · 2021年2月9日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
98+阅读 · 2020年8月30日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
用于中文闲聊的GPT2模型:GPT2-chitchat
AINLP
7+阅读 · 2019年12月11日
已删除
将门创投
7+阅读 · 2019年10月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
6+阅读 · 2019年3月19日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员