在过去的几年里,人工智能(AI)系统的能力急剧增加,同时带来了新的风险和潜在利益。在军事方面,这些被讨论为新一代 "自主"武器系统的助推器以及未来 "超战争 "的相关概念。特别是在德国,这些想法在社会和政治中面临着有争议的讨论。由于人工智能在世界范围内越来越多地应用于一些敏感领域,如国防领域,因此在这个问题上的国际禁令或具有法律约束力的文书是不现实的。

在决定具体政策之前,必须对这项技术的风险和好处有一个共同的理解,包括重申基本的道德和原则。致命力量的应用必须由人指挥和控制,因为只有人可以负责任。德国联邦国防军意识到需要应对这些发展,以便能够履行其宪法规定的使命,即在未来的所有情况下保卫国家,并对抗采用这种系统的对手,按照其发展计划行事。因此,迫切需要制定概念和具有法律约束力的法规,以便在获得利益的同时控制风险。

本立场文件解释了弗劳恩霍夫VVS对当前技术状况的看法,探讨了利益和风险,并提出了一个可解释和可控制的人工智能的框架概念。确定并讨论了实施所提出的概念所需的部分研究课题,概述了通往可信赖的人工智能和未来负责任地使用这些系统的途径。遵循参考架构的概念和规定的实施是基于人工智能的武器系统可接受性的关键推动因素,是接受的前提条件。

成为VIP会员查看完整内容
116

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
167+阅读 · 2023年5月6日
《人工智能:美国国防部面临的挑战和机遇》
专知会员服务
81+阅读 · 2023年4月22日
万字译文 |《决策中心战的兴起》决策中心战、马赛克战
专知会员服务
222+阅读 · 2023年3月21日
【AI+军事】最新22页PPT,解读人工智能军事应用
专知会员服务
301+阅读 · 2022年3月14日
国家自然科学基金
253+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
14+阅读 · 2022年5月6日
Arxiv
28+阅读 · 2021年9月18日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
16+阅读 · 2020年5月20日
Arxiv
43+阅读 · 2019年12月20日
Arxiv
53+阅读 · 2018年12月11日
VIP会员
相关资讯
相关基金
国家自然科学基金
253+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
14+阅读 · 2022年5月6日
Arxiv
28+阅读 · 2021年9月18日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
16+阅读 · 2020年5月20日
Arxiv
43+阅读 · 2019年12月20日
Arxiv
53+阅读 · 2018年12月11日
微信扫码咨询专知VIP会员