影响力最大化(IM)被定义为从社交网络中选择一组初始用户,以最大化受影响用户的预期数量。研究人员在设计各种传统方法方面取得了很大进展,它们的理论设计和性能提升接近极限。在过去的几年里,基于学习的IM方法应运而生,比传统方法在未知图上具有更强的泛化能力。然而,基于学习的IM方法的发展仍受到一些基本障碍的限制,包括:1)有效解决目标函数的难题;2)表征多样化潜在扩散模式的难题;以及3)在各种以节点中心性为约束的IM变体下调整解决方案的难题。为应对上述挑战,我们设计了一个名为DeepIM的新颖框架,以生成性地表征种子集的潜在表示,并提议以数据驱动和端到端的方式学习多样化的信息扩散模式。最后,我们设计了一个新颖的目标函数,以推断在灵活的基于节点中心性的预算约束下的最优种子集。在合成和真实世界数据集上进行了大量分析,以展示DeepIM的整体性能。代码和数据可在以下地址获取:https://github.com/triplej0079/DeepIM。

成为VIP会员查看完整内容
27

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】面向决策Transformer的未来条件无监督预训练
专知会员服务
41+阅读 · 2023年5月30日
【ICML2023】序列反事实风险最小化
专知会员服务
18+阅读 · 2023年5月1日
【ICML2022】几何多模态对比表示学习
专知会员服务
43+阅读 · 2022年7月17日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
20+阅读 · 2021年8月1日
ECCV 2022 Oral | 自反馈学习的mixup训练框架—AutoMix
TKDE 2020 | 面向严格冷启动推荐的属性图神经网络
PaperWeekly
12+阅读 · 2020年12月18日
最新《图嵌入组合优化》综述论文,40页pdf
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月16日
Arxiv
12+阅读 · 2021年10月22日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员