Accurate Quality of Service (QoS) prediction is fundamental to service computing, providing essential data-driven guidance for service selection and ensuring superior user experiences. However, prevalent approaches, particularly Graph Neural Networks (GNNs), heavily rely on constructing explicit user--service interaction graphs. Such reliance not only leads to the intractability of explicit graph construction in large-scale scenarios but also limits the modeling of implicit topological relationships and exacerbates susceptibility to environmental noise and outliers. To address these challenges, this paper introduces \emph{QoSDiff}, a novel embedding learning framework that bypasses the prerequisite of explicit graph construction. Specifically, it leverages a denoising diffusion probabilistic model to recover intrinsic latent structures from noisy initializations. To further capture high-order interactions, we propose an adversarial interaction module that integrates a bidirectional hybrid attention mechanism. This adversarial paradigm dynamically distinguishes informative patterns from noise, enabling a dual-perspective modeling of intricate user--service associations. Extensive experiments on two large-scale real-world datasets demonstrate that QoSDiff significantly outperforms state-of-the-art baselines. Notably, the results highlight the framework's superior cross-dataset generalization capability and exceptional robustness against observational noise.


翻译:准确的QoS(服务质量)预测是服务计算的基础,为服务选择提供关键的数据驱动指导,并保障卓越的用户体验。然而,现有主流方法,特别是图神经网络(GNNs),严重依赖于构建显式的用户-服务交互图。这种依赖不仅导致大规模场景下显式图构建难以处理,还限制了隐式拓扑关系的建模,并加剧了对环境噪声和异常值的敏感性。为应对这些挑战,本文提出QoSDiff,一种新颖的嵌入学习框架,它绕过了显式图构建的前提条件。具体而言,该框架利用去噪扩散概率模型从带噪声的初始化中恢复内在的潜在结构。为进一步捕捉高阶交互,我们提出一个对抗交互模块,该模块整合了双向混合注意力机制。这种对抗范式动态地区分信息模式与噪声,实现了对复杂用户-服务关联的双视角建模。在两个大规模真实数据集上的广泛实验表明,QoSDiff显著优于现有最先进的基线方法。值得注意的是,结果突显了该框架卓越的跨数据集泛化能力以及对观测噪声的出色鲁棒性。

0
下载
关闭预览

相关内容

ChatAug: 利用ChatGPT进行文本数据增强
专知会员服务
81+阅读 · 2023年3月4日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员