Robustness is a key requirement for high-risk AI systems under the EU Artificial Intelligence Act (AI Act). However, both its definition and assessment methods remain underspecified, leaving providers with little concrete direction on how to demonstrate compliance. This stems from the Act's horizontal approach, which establishes general obligations applicable across all AI systems, but leaves the task of providing technical guidance to harmonised standards. This paper investigates what it means for AI systems to be robust and illustrates the need for context-sensitive standardisation. We argue that robustness is not a fixed property of a system, but depends on which aspects of performance are expected to remain stable ("robustness of what"), the perturbations the system must withstand ("robustness to what") and the operational environment. We identify three contextual drivers--use case, data and model--that shape the relevant perturbations and influence the choice of tests, metrics and benchmarks used to evaluate robustness. The need to provide at least a range of technical options that providers can assess and implement in light of the system's purpose is explicitly recognised by the standardisation request for the AI Act, but planned standards, still focused on horizontal coverage, do not yet offer this level of detail. Building on this, we propose a context-sensitive multi-layered standardisation framework where horizontal standards set common principles and terminology, while domain-specific ones identify risks across the AI lifecycle and guide appropriate practices, organised in a dynamic repository where providers can propose new informative methods and share lessons learned. Such a system reduces the interpretative burden, mitigates arbitrariness and addresses the obsolescence of static standards, ensuring that robustness assessment is both adaptable and operationally meaningful.


翻译:鲁棒性是欧盟《人工智能法案》(AI Act)对高风险人工智能系统的核心要求。然而,其定义与评估方法均未得到充分明确,导致供应商在如何证明合规性方面缺乏具体指引。这源于该法案采用的横向监管路径:虽确立了适用于所有人工智能系统的通用义务,却将技术指导的制定任务留给了协调标准。本文探讨了人工智能系统鲁棒性的内涵,并阐述了情境敏感标准化的必要性。我们主张鲁棒性并非系统的固有属性,而是取决于预期保持稳定的性能维度(“对何鲁棒”)、系统需抵御的扰动类型(“抗何扰动”)以及实际运行环境。我们识别出三个情境驱动因素——用例、数据与模型——它们共同决定了相关扰动范围,并影响评估鲁棒性时采用的测试方法、度量指标与基准体系。《人工智能法案》的标准制定请求已明确要求提供至少一套可供供应商根据系统目标评估实施的技术选项范围,但当前规划的标准仍侧重于横向覆盖,尚未提供此等细化程度。基于此,我们提出一种情境敏感的多层标准化框架:横向标准确立通用原则与术语体系,而领域专用标准则识别人工智能全生命周期风险并指导适配实践,二者通过动态知识库进行组织,允许供应商提交新的参考性方法并分享实践经验。该体系可减轻解释负担、减少主观随意性、应对静态标准过时问题,从而确保鲁棒性评估兼具适应性与实践意义。

0
下载
关闭预览

相关内容

Kaggle知识点:伪标签Pseudo Label
AINLP
40+阅读 · 2020年8月9日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员