在这篇论文中,我们提出了用于学习和应用多源知识图谱(KG)嵌入的“联合预训练和局部重训”框架。我们的动机是,不同的KG包含可以改进KG嵌入和下游任务的互补信息。我们在链接的多源KG上预训练一个大型的教师KG嵌入模型,并将知识蒸馏到针对特定任务的KG的学生模型中。为了实现不同KG之间的知识转移,我们使用实体对齐来构建一个连接预训练KG和目标KG的链接子图。这个链接子图被重新训练,进行从教师到学生的三级知识蒸馏,即特征知识蒸馏,网络知识蒸馏和预测知识蒸馏,以生成更有表现力的嵌入。教师模型可以被重复用于不同的目标KG和任务,无需从头开始训练。我们进行了大量的实验来展示我们的框架的有效性和效率。

https://www.zhuanzhi.ai/paper/7c51aae482b4dfe47e2d387915dbcf24

成为VIP会员查看完整内容
26

相关内容

【KDD2023】学习语言表示用于序列推荐
专知会员服务
9+阅读 · 2023年5月27日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
专知会员服务
18+阅读 · 2021年9月6日
专知会员服务
38+阅读 · 2021年6月13日
【WWW2021】多视角图对比学习的药物药物交互预测
专知会员服务
53+阅读 · 2021年1月29日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
KDD2022 | 基于自监督超图Transformer的推荐算法研究
机器学习与推荐算法
1+阅读 · 2022年8月26日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年7月31日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关VIP内容
【KDD2023】学习语言表示用于序列推荐
专知会员服务
9+阅读 · 2023年5月27日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
22+阅读 · 2022年6月10日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
专知会员服务
18+阅读 · 2021年9月6日
专知会员服务
38+阅读 · 2021年6月13日
【WWW2021】多视角图对比学习的药物药物交互预测
专知会员服务
53+阅读 · 2021年1月29日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
40+阅读 · 2021年1月9日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员