实现真实世界中的机器人安全不仅仅意味着规避风险,更在于有效地识别、管理并应对风险。

本论文提出了一种面向风险感知决策与行为建模的安全保障体系(Safety Case),适用于复杂的多智能体环境,例如航空和自动驾驶等应用场景。我们认为,真正的安全性源自智能体以下能力:预测不确定性、推理他者意图,并在由先验知识、行为规范、社会语境及历史经验所界定的操作边界内行动。 为了实现安全且可解释的决策过程,本研究将**蒙特卡洛树搜索(MCTS)逻辑规范(logic specification)相结合,整合进学习策略中,以提升单智能体和多智能体场景下的规则遵循能力。我们提出了一种基于归纳逻辑编程(Inductive Logic Programming, ILP)**的符号规则挖掘方法,可从轨迹数据与事故报告中提取可解释的行为约束。

针对分布外风险(out-of-distribution risk),我们设计了一个融合框架,将**神经模仿学习(neural imitation learning)符号规则系统(symbolic rule-based systems)结合,提升泛化与安全性。此外,为缓解模型偏差带来的风险,我们探讨了结合检索增强生成(Retrieval-Augmented Generation, RAG)**与事故报告的方式,以实现复杂环境下基于真实数据的行动裁决(action arbitration)。 在航空领域的真实行为学习方面,我们构建并发布了三个关键数据集: * TrajAir:一个面向社交空中导航的轨迹数据集; * TartanAviation:一个用于意图推理的时间同步多模态数据集; * Amelia-48:覆盖美国多个机场的大规模地面滑行数据集,用于空中交通管理中的预测分析任务。

综上所述,本论文提出的理论框架、方法工具及数据集资源,支持自主系统在不确定性环境中推理、多元先验整合复杂真实世界中的稳健运行

成为VIP会员查看完整内容
1

相关内容

【ETHZ博士论文】机器学习代码: 安全性与可靠性
专知会员服务
19+阅读 · 2024年10月25日
【CMU博士论文】经典方法对现代机器学习的改进
专知会员服务
27+阅读 · 2024年8月16日
【论文笔记】基于强化学习的人机对话
专知
20+阅读 · 2019年9月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
169+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
457+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
168+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
微信扫码咨询专知VIP会员