【NSR特别专题】清华大学朱军:关于图的表达学习

2018 年 3 月 27 日 德先生

本文经授权转载自“人工智能前沿讲习班”

编者按:《国家科学评论》于2018年1月发表“机器学习”特别专题,由周志华教授组织并撰写文章。专题内容还包括对AAAI前主席Tom Dietterich的访谈,徐宗本院士、杨强教授、朱军博士、李航博士、张坤博士和Bernhard Scholkopf等人的精彩文章。本文中,清华大学朱军博士着重介绍了从以图表示的网络数据进行学习的最新进展。本文是对朱军教授所写的《关于图的表达学习》的全文翻译。



关于图的表达学习

作者:朱军

翻译:任民

校译:雷智文

网络随处可见。常见的例子包括社交网、国际互联网、交通运输网,电力网以及生物基因网。网络可以表示成一个图,其顶点表示实体,边表示实体之间的联系或关系。随着网络的广泛普及、同时涉及的领域越来越多,从网络中开发统计模型来完成预测或其它有意义的任务已经并将继续收获巨大利益。


早期的工作聚焦于通过使用与图的某种拓扑结构相关的特征,例如公共邻点(common neighbors)、Jaccard系数,Adamic/Adar与Katz(【1】中提供了例子)等,设计出优秀的节点之间距离(或相似性)的度量方式。受到深度学习巨大成功的启发,从网络中学到一种好的表达的方式吸引了越来越多的注意,尽管这不是学习网络中潜在特征的第一次尝试(例如使用贝叶斯非参数技术(Bayesian nonparametric techniques)的尝试【2】)。

图1: 图的表达学习

有人最近提出一种叫做Structure2Vec的方法【3】,它将实体(即节点)嵌入欧式空间中,这种方法融合了概率图模型和深度学习的想法。图1展示了其基本思想,其中每个节点X_i都与一个潜在变量H_i相关联。一般的,潜在变量H_i是随机的,整个H集合服从联合概率分布 p(H|X) 。还有一个问题是如何寻找单个变量或一组变量的边缘分布,解决类似这样的问题,我们需要在图上使用消息传递算法(message-passing algorithms)(例如mean-field以及信念传播),这种方法可以影响紧凑依赖结构(compact dependence structure)。Structure2Vec的思想来自于消息传递算法,不同于进行概率推导,它针对每个节点学习到一个特征向量μ_i∈R^d,而后在局部更新规则下进行消息传递,这种算法是迭代进行的,开始时赋予μ初值。在进行第t次迭代时,它使用来自相邻节点的局部信息更新每个节点i的特征向量:


μ_i^(t)  ←  f(W, X_i, {μ_j^(t-1)}_j \in N_i)             (1)


其中f是一个由深度神经网络定义的匹配函数,W是其参数。一个简单的单层神经网络可以定义为:


μ_i^(t)  ←  σ(W_1, X_i+W_2 Σ_j μ_j^(t-1))          (2)


其中σ是sigmoid函数。


有了特征向量μ,我们就可以定义一个用于预测任务的模型。例如,如果我们想要对每个节点进行分类,每个向量都可以作为分类器的输入。如果目标是关联预测,我们可以用一对向量μ_i和μ_j来定义一个表达关联E_{ij}的概率模型。如果预测是关于整个网络的,我们可以将所有的向量合为一个,送入分类器,而后,我们可以优化目标来寻找更优的特征向量,这与同时推测未知向量和更新参数的EM算法想法相似。当临时信息很重要时,这一框架可以推广到动态网络来处理临时信息【4】。


参考文献:

1. Liben-Nowell D and Kleinberg J. In: ACM Confer- ence of Information and Knowledge Management, New Orleans, USA, 2003, 556–9. 

2. Zhu J. In: International Conference on Machine Learning, Edinburgh, Scotland, 2012, 1179–86.

3. Dai H, Dai B and Song L. In: International Conference on Machine Learning, New York City, USA, 2016, 2702–11.

4. Trivedi R, Dai H and Wang Y et al. In: International Conference on Machine Learning, Sydney, Australia, 2017, 3462–71. 


《国家科学评论》(National Science Review, NSR)是我国第一份英文版自然科学综述性学术期刊,定位于全方位、多角度反映中外科学研究的重要成就,深度解读重大科技事件、重要科技政策,旨在展示世界(尤其是我国)前沿研究和热点研究的最新进展和代表性成果,引领学科发展,促进学术交流。NSR的报道范围涵盖数理科学、化学科学、生命科学、地球科学、材料科学、信息科学等六大领域。基于科睿唯安发布的2016年度的期刊引证报告(Journal Citation Reports,JCR),NSR的最新影响因子达到8.843,稳居全球多学科综合类期刊的第五名(8%,Q1)。NSR发表的所有论文全文可以在线免费阅读和下载。


本文经《National Science Review》(NSR,《国家科学评论》英文版)授权翻译,“机器学习”专题的更多翻译文章将陆续刊出。





📚往期文章推荐

人工智能名人堂第49期 | 斯坦福研究院名人堂成员:Peter E. HaAI+区块链丨区块链如何解锁人工智能新领域

🔗中科院王飞跃:第三轴心时代的智能产业,创立发展智能科技的新“直道”

🔗【大国重器】2018国家机器人发展论坛为何花落柯桥?

🔗中国工程院院士何友:工业大数据及其应用

🔗2018年度国家科技奖提名公示,信息科学组获47项提名(附提名项目)

🔗【NSR特别专题】周志华:弱监督学习简介「全文翻译」

🔗【NSR特别专题】周志华:机器学习的挑战和影响:Thomas Dietterich访谈「全文翻译」

🔗旷视首席科学家孙剑:计算机视觉的变革和挑战

🔗清华魏少军:今天多数AI芯片创业者会成为技术变革的先烈

🔗中国科学院院士郑建华:人工智能将改变网络安全的未来

🔗2017图灵奖揭晓,52届67位获奖者都是谁?


德先生公众号 | 往期精选


在公众号会话位置回复以下关键词,查看德先生往期文章!


人工智能|机器崛起|区块链|名人堂

虚拟现实|无人驾驶|智能制造|无人机

科研创新|网络安全|数据时代|人机大战

……

更多精彩文章正在赶来,敬请期待!


点击“阅读原文”,移步求知书店,可查阅选购德先生推荐书籍。

登录查看更多
1

相关内容

张坤博士是卡内基梅隆大学哲学系的助理教授和机器学习系的副教授,也是德国马克斯·普朗克智能系统研究所的高级研究科学家。他的研究兴趣在于机器学习和人工智能,尤其是因果发现,基于因果关系的学习和通用人工智能。他从因果关系的角度开发了用于自动发现因果关系的方法,从因果关系角度研究学习问题,尤其是转移学习,概念学习和深度学习,并研究了因果关系和各种机器学习任务的哲学基础。他曾担任大型机器学习或人工智能会议的区域主席或高级程序委员会成员,包括NeurIPS,UAI,ICML,AISTATS,AAAI和IJCAI。他组织了各种学术活动,以促进因果关系的跨学科研究。个人主页:https://www.cmu.edu/dietrich/philosophy/people/faculty/zhang.html
【新书】图神经网络导论,清华大学刘知远老师著作
专知会员服务
359+阅读 · 2020年6月12日
【天津大学】知识图谱划分算法研究综述
专知会员服务
105+阅读 · 2020年4月27日
清华大学唐杰老师:用于理解、推理和决策的认知图计算
专知会员服务
118+阅读 · 2019年11月30日
论文浅尝 | 一种嵌入效率极高的 node embedding 方式
开放知识图谱
13+阅读 · 2019年5月12日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
清华大学图神经网络综述:模型与应用
机器之心
72+阅读 · 2018年12月26日
NSR专题|机器学习(特邀编辑:周志华)
知社学术圈
7+阅读 · 2018年3月2日
CCCF:周志华 | 关于强人工智能
AI科技评论
4+阅读 · 2018年1月17日
Arxiv
3+阅读 · 2018年2月22日
VIP会员
相关资讯
论文浅尝 | 一种嵌入效率极高的 node embedding 方式
开放知识图谱
13+阅读 · 2019年5月12日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
清华大学图神经网络综述:模型与应用
机器之心
72+阅读 · 2018年12月26日
NSR专题|机器学习(特邀编辑:周志华)
知社学术圈
7+阅读 · 2018年3月2日
CCCF:周志华 | 关于强人工智能
AI科技评论
4+阅读 · 2018年1月17日
Top
微信扫码咨询专知VIP会员