最近,终身学习在构建不断积累和转移知识以帮助未来学习的机器学习系统方面引起了关注。无监督主题建模广泛用于从文档集合中发现主题。然而,由于数据稀疏性,例如,在一个小的(短)文档集合中,会产生不连贯的主题和次优的文档表示,主题建模的应用具有挑战性。为了解决这个问题,我们提出了一个神经主题建模的终身学习框架,它可以连续处理文档集流,积累主题,并通过从多个来源的知识转移来指导未来的主题建模任务,以更好地处理稀疏的数据。在终身学习过程中,我们特别共同研究:(1)终生共享生成同源性(潜在话题)以转移先验知识,(2)通过新颖的选择性数据增强、联合训练和话题正则化方法最小化保留过去学习的灾难性遗忘。在给定一个文档集合流的情况下,我们应用所提出的终身神经主题建模(LNTM)框架,将三个稀疏文档集合建模为未来任务,并通过perplexity、Topic coherence和information retrieval task量化,证明了性能的提高。

成为VIP会员查看完整内容
36

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
专知会员服务
29+阅读 · 2020年7月31日
分布式图神经知识表示框架
专知会员服务
61+阅读 · 2020年7月28日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
35+阅读 · 2020年2月27日
实验室学生参加 IJCAI 2019会议并做报告
inpluslab
16+阅读 · 2019年8月25日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
总结 | 清华大学韩旭:神经关系抽取模型
AI科技评论
8+阅读 · 2018年9月28日
机器学习顶级论文及实现(附地址及简介)
七月在线实验室
6+阅读 · 2017年12月22日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
7+阅读 · 2018年3月17日
Arxiv
3+阅读 · 2018年2月22日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关VIP内容
专知会员服务
29+阅读 · 2020年7月31日
分布式图神经知识表示框架
专知会员服务
61+阅读 · 2020年7月28日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
35+阅读 · 2020年2月27日
微信扫码咨询专知VIP会员