自主系统的复杂性与部署范围正日益提升,从先进工业机器人到智能城市基础设施,这迫切需要软件工程范式的根本性转变。这些系统不仅要求高度适应性,还需具备严格的安全性与透明决策能力。本文提出一种统一的软件智能框架,通过无缝集成神经程序合成(NPS)、量子安全运维(QSD)与可解释人工智能(XAI)来满足这些多维需求。该框架借助NPS实现AI驱动的代码生成,通过QSD强化软件生命周期以应对新兴量子威胁,并利用XAI确保关键自主操作中可解释且可信的决策过程。我们对各领域最新进展进行全面文献综述,详细分析其各自挑战与协同潜力。所提出的架构将这些组件统一为从规范到代码生成、安全部署及运行时适应的连续管道。通过一个假设的智慧城市基础设施场景,阐明了该融合框架的实际应用与优势,展示其快速代码适配能力、后量子安全性以及对自主行为提供人类可理解解释的特性。我们进一步讨论此类集成固有的技术挑战,包括稳健的评估策略,以及在敏感环境中部署AI生成、量子安全系统所涉及的深远伦理、运营与安全影响。本研究为发展适应性、稳健性及可信赖自主系统所必需的新兴多学科领域奠定基础。

自主系统在各大关键领域(从制造业先进机器人到智能城市基础设施)日益增长的复杂性与广泛部署,迫切需要软件工程范式的深刻演进。这些系统必须在动态且不可预测的环境中以前所未有的适应性、安全性与可信度水平运行。传统软件开发方法难以跟上运营需求的快速演变及新兴威胁的步伐,尤其在人类干预有限或响应时间至关重要的场景中。当前自主系统发展的挑战源于三个核心领域:对实时软件适配的需求、量子计算对经典密码学构成的存在性威胁,以及AI驱动决策中透明性与人类信任的必要性。程序员常常难以为所有可预见场景快速编写和更新代码,而神经程序合成(NPS)旨在通过AI自动生成或修复代码来解决该问题。同时,量子计算机的出现可能破解广泛使用的公钥密码系统,从而危及从开发到部署的软件生命周期各阶段。这需要集成量子安全运维(QSD)以构建弹性安全管道。最后,随着AI组件日益控制自主系统中的关键决策,许多模型固有的“黑箱”特性削弱了人类信任。可解释人工智能(XAI)通过生成人类操作者可理解且可审计的推理模型,旨在弥合这一差距,确保信任与问责。本文认为NPS、QSD与XAI并非孤立学科,而是相互依存的支柱,当紧密集成时,可构成下一代自主系统的协同框架。例如,NPS生成的AI代码应能通过XAI技术进行验证与调试,再通过QSD管道安全部署。同样,量子安全管道可保证XAI生成的模型及其解释不被强大对手篡改。这些领域的融合有望提升自主平台的敏捷性、安全性与可信度。

本文的贡献是多方面的:

• 对神经程序合成、量子安全运维与可解释人工智能的最新学术与行业研究进行广泛回顾,聚焦其各自进展、挑战及融合潜力。

• 提出一种新颖的软件智能框架架构,将这三个关键组件统一为用于自主系统开发与运营的连续智能管道。

• 详细阐述该融合框架内的模块、工作流与交互,通过一个涉及自主资源管理的假设智慧城市场景说明其实际应用。

• 分析实施此类集成框架固有的技术挑战,包括正确性、可扩展性、安全开销、可解释性与复杂性权衡、人机交互及集成复杂性等问题。

• 概述必要的严格评估策略与性能指标,以评估所提出框架的有效性、可信度及伦理合规性。

• 讨论在敏感环境中部署AI生成、量子安全系统所涉及的更广泛伦理、运营与安全影响。本工作为开发适应性、稳健性及可信赖自主系统所必需的新兴多学科领域奠定基础。

成为VIP会员查看完整内容
1

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《战术意图识别:人工和算法效率比较研究》最新报告
专知会员服务
57+阅读 · 2024年10月29日
《人工智能对传统人工情报分析的影响》最新报告
专知会员服务
50+阅读 · 2024年10月10日
【2022新书】深度学习归一化技术,117页pdf
专知
28+阅读 · 2022年11月25日
基于深度学习的数据融合方法研究综述
专知
34+阅读 · 2020年12月10日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
480+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
174+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员