Background: Clustering of nodes in Bayesian Networks (BNs) and related graphical models such as Dynamic BNs (DBNs) has been demonstrated to enhance computational efficiency and improve model learning. It typically involves partitioning the underlying Directed Acyclic Graph (DAG) into cliques or optimising for some cost or criteria. Objectives: We focus on a critical but understudied aspect of optimal clustering involving cost dependency. This is where inference outcomes and hence clustering costs depend on both nodes within a cluster and the mapping of clusters that are connected by at least one arc. Methods: We propose a novel algorithm called Dependent Cluster MAPping (DCMAP) which can, given an arbitrary, positive cost function, iteratively and rapidly find near-optimal, then optimal cluster mappings. Results: DCMAP is shown analytically to be optimal in terms of finding all of the least cost cluster mapping solutions and with no more iterations than an equally informed algorithm. Demonstrated on a complex systems seagrass DBN with $9.91\times10^9$ and $1.51\times10^{21}$ possible cluster mappings for 25 and 50 node configurations, it took 856 and 1569 iterations on average to find the first optimal solution, respectively. Conclusions: The effectiveness of DCMAP enables future research in BN learning using optimisation, such as through enhancing computational efficiency or minimising entropy for learning. This is critically important as computation of marginal distributions or updating model parameters is NP-hard.


翻译:背景:贝叶斯网络及其相关图模型(如动态贝叶斯网络)中的节点聚类已被证明能提升计算效率并改进模型学习。该方法通常涉及将底层有向无环图划分为团结构,或针对特定成本或准则进行优化。目标:本研究聚焦于最优聚类中一个关键但尚未被充分探讨的方面——成本依赖性。在此情境下,推理结果及相应的聚类成本不仅取决于聚类内的节点,还受到至少通过一条弧连接的聚类间映射关系的影响。方法:我们提出一种名为依赖聚类映射的新型算法。该算法在给定任意正成本函数的前提下,能够通过迭代方式快速寻找到近似最优乃至最优的聚类映射方案。结果:理论分析表明,DCMAP算法在寻找全部最低成本聚类映射解方面具有最优性,且其迭代次数不超过同等信息条件下的算法。在一个复杂系统海草动态贝叶斯网络模型上的实证显示:对于包含25个节点和50个节点的配置,其可能的聚类映射数分别达到$9.91\times10^9$和$1.51\times10^{21}$种,而DCMAP平均仅需856次和1569次迭代即可找到首个最优解。结论:DCMAP算法的有效性为未来基于优化的贝叶斯网络学习研究开辟了新途径,例如通过提升计算效率或最小化学习熵来改进学习过程。这一进展具有重要意义,因为边缘分布计算和模型参数更新均属于NP难问题。

0
下载
关闭预览

相关内容

 DiffRec: 扩散推荐模型(SIGIR'23)
专知会员服务
48+阅读 · 2023年4月16日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
【NeurIPS2019】图变换网络:Graph Transformer Network
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员