Currently, prominent Transformer architectures applied on graphs and meshes for shape analysis tasks employ traditional attention layers that heavily utilize spectral features requiring costly eigenvalue decomposition-based methods. To encode the mesh structure, these methods derive positional embeddings, that heavily rely on eigenvalue decomposition based operations, e.g. on the Laplacian matrix, or on heat-kernel signatures, which are then concatenated to the input features. This paper proposes a novel approach inspired by the explicit construction of the Hodge Laplacian operator in Discrete Exterior Calculus as a product of discrete Hodge operators and exterior derivatives, i.e. $(L := \star_0^{-1} d_0^T \star_1 d_0)$. We adjust the Transformer architecture in a novel deep learning layer that utilizes the multi-head attention mechanism to approximate Hodge matrices $\star_0$, $\star_1$ and $\star_2$ and learn families of discrete operators $L$ that act on mesh vertices, edges and faces. Our approach results in a computationally-efficient architecture that achieves comparable performance in mesh segmentation and classification tasks, through a direct learning framework, while eliminating the need for costly eigenvalue decomposition operations or complex preprocessing operations.


翻译:当前,应用于图形和网格进行形状分析任务的Transformer架构主要采用传统的注意力层,这些层严重依赖需要基于特征值分解的昂贵计算方法的谱特征。为了编码网格结构,这些方法通过基于特征值分解的操作(例如在拉普拉斯矩阵上或热核签名上)推导位置嵌入,然后将其与输入特征拼接。本文提出了一种新颖的方法,其灵感来源于离散外微积分中Hodge拉普拉斯算子的显式构造,即作为离散Hodge算子和外导数的乘积(表示为$(L := \star_0^{-1} d_0^T \star_1 d_0)$)。我们调整了Transformer架构,设计了一种新颖的深度学习层,该层利用多头注意力机制来近似Hodge矩阵$\star_0$、$\star_1$和$\star_2$,并学习作用于网格顶点、边和面的离散算子族$L$。我们的方法产生了一种计算高效的架构,通过直接学习框架,在网格分割和分类任务中实现了可比的性能,同时消除了对昂贵的特征值分解操作或复杂预处理操作的需求。

0
下载
关闭预览

相关内容

NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员