Many experts argue that artificial superintelligence (ASI), if developed prematurely, poses catastrophic risks including human extinction from misaligned ASI, geopolitical instability, and misuse by malicious actors. This report proposes an international agreement to prevent the premature development of ASI until AI development can proceed without these risks. The agreement halts dangerous AI capabilities advancement while preserving access to current, beneficial AI applications. The proposed framework centers on a coalition led by the United States and China that would restrict the scale of AI training and dangerous AI research. Due to the lack of trust between relevant parties, verification is a key part of the agreement. Limits on the scale of AI training are operationalized by FLOP thresholds and verified through the tracking of AI chips and verification of chip use. Dangerous AI research--that which advances toward artificial superintelligence or endangers the agreement's verifiability--is stopped via legal prohibitions and multifaceted verification. We believe the proposal would be technically sufficient if implemented today, but advancements in AI capabilities or development methods would hurt its efficacy. Simultaneously, there is not yet political will for such an agreement. Despite these concerns, we hope this agreement can provide direction for AI governance research and policy.


翻译:许多专家认为,人工超智能(ASI)若过早发展,将带来灾难性风险,包括因未对齐的ASI导致人类灭绝、地缘政治不稳定以及恶意行为者的滥用。本报告提出一项国际协议,旨在防止在人工智能发展能够规避这些风险之前过早开发ASI。该协议在保留现有有益AI应用的同时,暂停危险AI能力的推进。所提出的框架以美国和中国的联盟为核心,限制AI训练的规模及危险的AI研究。由于相关方之间缺乏信任,核查成为协议的关键部分。对AI训练规模的限制通过浮点运算阈值实施,并通过追踪AI芯片及核查芯片使用情况来验证。危险的AI研究——即那些推动人工超智能发展或危及协议可核查性的研究——将通过法律禁令和多层面核查予以禁止。我们认为,若当前实施,该提案在技术上具有充分性,但AI能力或开发方法的进步将削弱其效力。同时,目前尚未形成对此类协议的政治意愿。尽管存在这些担忧,我们希望该协议能为AI治理研究和政策提供方向。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
DARPA D3M计划《发现和收集数据以支持数据分析》
专知会员服务
35+阅读 · 2024年5月18日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 11月26日
Arxiv
0+阅读 · 11月18日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员