Hybrid quantum and classical learning aims to couple quantum feature maps with the robustness of classical neural networks, yet most architectures treat the quantum circuit as an isolated feature extractor and merge its measurements with classical representations by direct concatenation. This neglects that the quantum and classical branches constitute distinct computational modalities and limits reliable performance on complex, high dimensional tabular and semi structured data, including remote sensing, environmental monitoring, and medical diagnostics. We present a multimodal formulation of hybrid learning and propose a cross attention mid fusion architecture in which a classical representation queries quantum derived feature tokens through an attention block with residual connectivity. The quantum branch is kept within practical NISQ budgets and uses up to nine qubits. We evaluate on Wine, Breast Cancer, Forest CoverType, FashionMNIST, and SteelPlatesFaults, comparing a quantum only model, a classical baseline, residual hybrid models, and the proposed mid fusion model under a consistent protocol. Pure quantum and standard hybrid designs underperform due to measurement induced information loss, while cross attention mid fusion is consistently competitive and improves performance on the more complex datasets in most cases. These findings suggest that quantum derived information becomes most valuable when integrated through principled multimodal fusion rather than used in isolation or loosely appended to classical features.


翻译:量子与经典混合学习旨在将量子特征映射与经典神经网络的鲁棒性相结合,然而大多数架构将量子电路视为孤立特征提取器,并通过直接拼接方式将其测量结果与经典表征合并。这种做法忽略了量子与经典分支构成不同计算模态的事实,限制了在复杂高维表格与半结构化数据(包括遥感、环境监测和医疗诊断)上的可靠性能。我们提出混合学习的多模态表述,并设计了一种交叉注意力中间融合架构,其中经典表征通过具有残差连接的注意力模块查询量子衍生特征标记。量子分支保持在实用NISQ资源预算内,最多使用九个量子比特。我们在Wine、Breast Cancer、Forest CoverType、FashionMNIST和SteelPlatesFaults数据集上进行评估,在统一实验协议下比较了纯量子模型、经典基线模型、残差混合模型及所提出的中间融合模型。纯量子和标准混合设计因测量引起的信息损失而表现欠佳,而交叉注意力中间融合模型始终保持竞争力,并在多数情况下提升了复杂数据集的性能。这些发现表明,量子衍生信息通过原则性多模态融合进行整合时最具价值,而非孤立使用或松散附加于经典特征。

0
下载
关闭预览

相关内容

【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员