现实世界的数据生成往往涉及实例之间复杂的相互依赖关系,违反了标准学习范式的IID-data假设,为揭示学习所需实例表示的几何结构带来了挑战。本文提出一种能量约束扩散模型,将数据集中的一批实例编码为进化状态,通过它们的相互作用逐步纳入其他实例的信息。扩散过程受下降准则w.r.t的约束。w.r.t是一个原则性的能量函数,刻画了潜结构上实例表示的全局一致性。本文提供了严格的理论,意味着对任意实例对之间的成对扩散强度的闭合形式最优估计,这产生了一类新的神经编码器,称为DIFFormer(基于扩散的transformer),有两个实例:一个简单版本,对实例数量具有线性复杂性,另一个高级版本,用于学习复杂结构。实验强调了所提出模型作为通用编码器骨干的广泛适用性,在各种任务中具有优越的性能,如大图上的节点分类、半监督图像/文本分类和时空动态预测。 https://www.zhuanzhi.ai/paper/1c4b9cf426b3d20898582742919b4151

成为VIP会员查看完整内容
20

相关内容

【NeurIPS2022】基于最大熵编码的自监督学习
专知会员服务
26+阅读 · 2022年10月23日
图时卷积神经网络:架构与理论分析
专知会员服务
23+阅读 · 2022年7月3日
DeepMind | 通过去噪来进行分子性质预测的预训练
专知会员服务
12+阅读 · 2022年6月27日
【ICLR2022】Transformers亦能贝叶斯推断
专知会员服务
24+阅读 · 2021年12月23日
专知会员服务
15+阅读 · 2021年8月13日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
图时卷积神经网络:架构与理论分析
专知
0+阅读 · 2022年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年3月15日
Transformers in Remote Sensing: A Survey
Arxiv
23+阅读 · 2022年9月2日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
20+阅读 · 2021年9月21日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员