2、Multi-Modal Bayesian Embeddings

2、Multi-Modal Bayesian Embeddings

清华大学杨植麟提出一种异构贝叶斯嵌入模型,通过LDA主题模型简历异构的多模态嵌入表示之间的联系。

模型的输入是一系列弱监督信息,表示社交网络节点与文本的交互信息。仿照传统的话题模型,作者将一个弱监督信息条目称为一个文档。每一个文档包含了一个社交网络节点以及和该社交网络节点交互过的所有知识概念。下面,针对给定的弱监督信息进行建模。
图片

图:异构贝叶斯嵌入模型

上图是异构贝叶斯嵌入模型的图表示。在这个模型中,图片是狄利克雷分布的超参数,图片是每个社交网络节点的话题多项分布,z 是文档中每个知识概念的话题,图片是文档中每个知识概念的嵌入表示, y是社交网络节点的话题,图片是社交网络节点的嵌入表示,图片是知识概念嵌入表示的 normal Gamma 先验的超参数,图片是社交网络节点嵌入表示的 normal Gamma先验的超参数,图片表示每个话题对应的社交网络节点高斯分布的均值,图片表示每个话题对应的社交网络节点高斯分布的精度(方差的倒数),图片表示每个话题对应的知识概念高斯分布的均值,图片表示每个话题对应的知识概念高斯分布的精度。
T 表示话题的数目, D 表示文档或社交网络节点的数目,图片表示文档d中知识概念的数目。

(1)模型生成过程

  1. 对于每一个话题 t

(a) 对于知识概念嵌入表示的每一个维度,从分布图片生成图片图片

(b) 对于网络节点嵌入表示的每一个维度,从分布图片生成图片图片

  1. 对于每一个文档 d

(a) 从图片分布生成话题多项分布图片

(b) 对于文档中的每一个知识概念 w

i. 从多项分布图片生成知识概念的话题 z

ii. 对于知识概念嵌入表示的每一个维度,从高斯分布图片生成嵌入表示图片

© 从文档中所有知识概念的话题 z 中 uniform 生成网络节点的话题 y

(d) 对于网络节点嵌入表示的每一个维度,从高斯分布图片生成嵌入表示图片

(2)联合概率分布推导

模型的联合概率分布可以写成如下形式:
图片
下面我们对等式右边的每一项进行单独展开。

图片的分布服从狄利克雷分布,超参数是图片,其概率可以表示成:
图片

其中下标 d 表示文档,下标 t 表示话题。

高斯分布的参数图片图片由 normal Gamma分布生成,超参数是图片图片所以高斯分布参数的概率可以写成如下形式:
图片
图片

其中下标 t 表示话题, e 表示嵌入表示的某个维度, normal Gamma的超参数图片被展开成图片四个标量参数。注意作为 normal Gamma分布超参数的图片跟模型中的高斯参数图片以及狄利克雷超参数图片含义不同。

从多项分布生成话题的概率如下:
图片

其中,下标 d 表示文档,下标 m 表示知识概念。

从知识概念的话题生成网络节点的话题的概率是一个 uniform分布,由于一个知识概念话题可能出现多次,所以该话题被生成的概率正比于出现次数:
图片
其中,下标 d 表示文档,下标 m 表示知识概念。

如果我们采用上述式子作为生成网络节点话题的概率,网络节点的话题就必须在知识概念的话题中出现过,因为没有出现过的话题的概率是零。我们为了使得概率分布更加平滑,采用了拉普拉斯平滑的技巧,所以我们将生成网络节点话题的概率改写成:
图片

其中拉普拉斯平滑系数
图片

对于知识概念嵌入表示图片的每个维度,其生成概率是一个单变量高斯分布:
图片

其中图片图片均是在对应话题对应维度下的取值,为了简洁我们省略了其下标。

对于网络节点嵌入表示图片的每个维度,其生成概率是一个单变量高斯分布:
图片

其中图片图片均是在对应话题对应维度下的取值,为了简洁我们省略了其下标。

(3)对模型参数进行积分

在这一节中,作者借鉴 Collapsed Gibbs Sampling的思想,先对模型参数图片进行积分,然后得到变量关于模型超参数的联合概率分布。

对参数 θ 进行积分。
图片

其中图片是一个长度为 T 的向量,向量中每个元素图片表示文档 d 中被分配到话题 t的知识概念的数目。图片作为狄利克雷函数的超参数,也是一个长度为 T 向量。
对参数图片,进行积分,图片

其中函数 G(·) 定义为,
图片

其中 n 是所有 y = t 对应的 f 的数目。假设 x 是所有图片的对应的嵌入表示 f的第 e维组成的向量,则:
图片
图片
图片
图片

其中图片表示 x 中所有元素的均值。

相似地,我们可以对参数图片进行积分,
图片

综合上面各个式子,我们可以得到对所有模型参数积分之后所有变量关于模型超参数的联合概率分布,
图片

其中图片图片分别表示网络节点和知识概念嵌入表示的维度。

(4)条件概率推导

在本文中我们采用吉布斯采样对模型进行概率推理。为了进行吉布斯采样,我们需要推导每个变量在给定其他变量情况下的条件概率。对于文档
d,网络节点的话题 yd 的条件概率可以写成,
图片

其中,图片表示文档 d 中话题为 t 的知识概念的数目。函数图片定义为
图片

其中 n 是所有 y = t 对应的 f 的数目。假设 x 是所有图片的对应的嵌入表示 f的第 e维组成的向量。图片,图片是文档中图片对应的 f 的数目。

知识概念的话题图片的条件概率可以写成,图片

(5)模型参数更新

对于文档 d,话题分布参数图片更新如下:
图片

对于话题 t,假设 n
是所有图片的知识概念的数目,x是所有图片的知识概念对应的嵌入表示组成的向量,则对于嵌入表示的每一维,参数图片图片更新如下:
图片
图片

对于话题 t,假设 n 是所有图片的网络节点的数目, x是所有的网络节点图片对应的嵌入表示组成的向量,则对于嵌入表示的每一维,参数图片图片更新如下:
图片
图片

(6)嵌入表示更新

在之前的把嵌入表示模型和话题模型结合的高斯 LDA 模型中, Das
等人并没有对嵌入表示进行更新。我们在这个模型中,提出对嵌入表示也进行更新,可以更好地利用弱监督学习纠正非监督学习得到的嵌入表示的不足。

我们将目标函数定义为给定隐变量情况下的嵌入表示的对数似然,
图片

其中图片表示所有文档中话题为 t 的知识概念的数目。

为了最大化嵌入表示的对数似然,我们可以直接从目标函数得到 closedform
的嵌入表示。但是因为我们每一次抽样的话题是具有随机性的,所以这样得到的嵌入表示容易受到话题的随机性的影响,变动太大。所以我们提出采用梯度下降的方法对嵌入表示进行更新。

知识概念和网络节点的嵌入表示的梯度分别为:
图片
图片

(7)模型学习过程

算法1:模型的学习过程
输入:训练数据D,模型超参数图片,初始向量表示图片,burn-in迭代次数图片,最大迭代次数图片,话题隐变量迭代次数图片,模型参数更新周期图片输出:话题隐变量图片,模型参数图片,更新的向量表示图片。 //初始化 随机初始化话题隐变量图片 //Burn-in for图片 do foreach 网络节点话题隐变量图片 do 根据公式对图片进行抽样生成 foreach 只是概念话题隐变量图片 do 根据公式对图片进行抽样生成 //抽样 for图片 do for图片 do foreach 网络节点话题隐变量图片 do 根据公式对图片进行抽样生成 foreach 知识概念话题隐变量图片 do 根据公式对图片进行抽样生成 if 从上次参数读入已经经历了图片次迭代 then 根据公式读取参数 将当前读取参数与之前读取参数进行平均 对嵌入表示进行更新(根据下面的算法2return图片
算法2:嵌入表示的更新过程
输入:模型参数图片,原来的嵌入表示图片,嵌入表示迭代次数图片,网络节点初始学习率图片,知识概念初始学习率图片,学习率衰减指数图片 输出:新的嵌入表示图片 for图片 do 图片当前模型的对数似然 foreach 网络节点嵌入表示图片do 根据公式计算梯度图片

图片
foreach 知识概念嵌入表示图片 do 根据公式计算梯度图片
图片
图片更新之后的对数似然 if图片 then 接受嵌入表示更新 else 拒绝嵌入表示更新
图片
图片return 图片 |

在“算法1”中,我们详细介绍了模型学习过程。模型的学习过程分为三个阶段:初始化,
burn-in,还有抽样阶段

  • 在初始化阶段,我们对话题隐变量 y 和 z 进行初始化,每个话题隐变量被uniform随机分配到一个话题。接着,我们采用 collapsed 吉布斯采样[24]的方法进行推理。在每一轮迭代中,我们固定其他变量的值,计算当前考察的变量在给定其他变量情况下的条件概率分布,然后从分布中进行抽样。

  • 在 burn-in 阶段,我们根据公式 (3-2, 3-1)对话题隐变量进行抽样更新。在这一阶段,为了消除话题隐变量初始值对模型的影响,我们不更新模型参数或嵌入表示。

  • 在模型的话题隐变量基本进入稳定状态之后,我们进入了抽样阶段。在抽样阶段,我们轮流对话题隐变量,模型参数和嵌入表示更新。话题隐变量的更新方法与burn-in 阶段相同。我们设置一个周期图片,每一个周期我们计算一次模型参数,并进行累加。我们最后采用抽样阶段所有读取的模型参数的平均值作为最终的模型参数。

在“算法2”中,我们详细描述了对嵌入表示进行更新的算法流程。我们依次枚举每一个网络节点和知识概念,对于其嵌入表示,我们采用前面章节所推导得出的梯度进行梯度下降。

由于梯度下降的学习率比较难设置,我们使用了一个动态调整梯度下降学习率的技巧。每次进行梯度下降之前,先计算当前模型的对数似然,然后尝试进行梯度下降,再次计算迭代之后模型的对数似然。如果对数似然上升,说明当前的学习率合适,我们采用梯度下降之后的嵌入表示。如果对数似然下降,说明当前的学习率过大,我们把学习率乘以一个衰减指数,并放弃当前迭代对嵌入表示的更新。

附录1:后验预测推导

根据贝叶斯思想:

先验分布 * 似然函数 = 后验分布

先验分布:标准Gamma分布(normal-Gamma)

似然函数:高斯分布

后验分布:标准Gamma分布(normal-Gamma)

似然函数
图片

先验分布

共轭先验分布满足标准Gamma分布(normal-Gamma),设先验参数为图片,其标准Gamma分布公式如下:
图片
图片

其中,先验分布中均值的边际分布如下:
图片

从上述函数形式可以看出,这是一个非标准化的图片分布,所以,上式可以写成如下的形式:
图片

上述的分布可以认为是一个图片分布。

后验分布

后验分布可以由下面的式子获得:
图片

其中
图片

整理可得:
图片

其中,
图片

最终得到:
图片
图片
图片
图片
图片

上式给出了后验分布与先验分布属于同类型的分布,即Gaussian分布和Gamma分布的乘积。同时推导出了模型参数更新公式。

边际似然函数

为了获得边际似然函数,我们利用图片表示一个非正规化的Gamma分布(unnormalized Normal Gamma distribution),用图片表示先验归一化常量,图片是后验的归一化常量。用图片表示非标准化高斯分布,其中图片是归一化常量。有
图片

其中两图片图片相结合得到后验分布图片
图片

因此
图片

后验预测(Posterior predictive)

对于m个新的观测数据,其分布预测概率如下:
图片

在特殊情况下当m=1时,上式可以看出是一个T分布(T-distribution)
图片

其中,后验参数更新如下:
图片
图片
图片

当m=1时,有图片(说明只有一个新观测值),因此我们有图片,用x表示图片图片可以写成如下形式:
图片

代换并化简可得:
图片

可以看出,这是一个T分布,其中均值为图片,准确度为图片,自由度为图片

  1. Multi-Modal Bayesian Embeddings—Yang Z, Tang J, Cohen W. Multi-Modal Bayesian Embeddings for Learning Social Knowledge Graphs[J]. Computer Science, 201
展开全文
相关主题
Top