Large language models are often adapted through parameter efficient fine tuning, but current release practices provide weak assurances about what data were used and how updates were computed. We present Verifiable Fine Tuning, a protocol and system that produces succinct zero knowledge proofs that a released model was obtained from a public initialization under a declared training program and an auditable dataset commitment. The approach combines five elements. First, commitments that bind data sources, preprocessing, licenses, and per epoch quota counters to a manifest. Second, a verifiable sampler that supports public replayable and private index hiding batch selection. Third, update circuits restricted to parameter efficient fine tuning that enforce AdamW style optimizer semantics and proof friendly approximations with explicit error budgets. Fourth, recursive aggregation that folds per step proofs into per epoch and end to end certificates with millisecond verification. Fifth, provenance binding and optional trusted execution property cards that attest code identity and constants. On English and bilingual instruction mixtures, the method maintains utility within tight budgets while achieving practical proof performance. Policy quotas are enforced with zero violations, and private sampling windows show no measurable index leakage. Federated experiments demonstrate that the system composes with probabilistic audits and bandwidth constraints. These results indicate that end to end verifiable fine tuning is feasible today for real parameter efficient pipelines, closing a critical trust gap for regulated and decentralized deployments.


翻译:大型语言模型通常通过参数高效微调进行适配,但当前的发布实践在数据使用方式及更新计算过程方面提供的保证较弱。本文提出可验证微调协议系统,该系统能生成简洁的零知识证明,证实所发布模型是在声明的训练程序与可审计数据集承诺下从公共初始化状态获得的。该方法融合了五个核心要素:首先,将数据源、预处理流程、许可协议及每轮次配额计数器绑定至清单的承诺机制;其次,支持公开可重放与隐私索引隐藏批量选择的可验证采样器;第三,限定于参数高效微调的更新电路,强制遵循AdamW优化器语义并采用证明友好的近似计算及显式误差预算;第四,通过递归聚合将逐步骤证明折叠为每轮次及端到端证书,实现毫秒级验证;第五,来源绑定及可选的信任执行属性卡,用于验证代码身份与常量。在英语及双语指令混合数据集上的实验表明,该方法在严格预算范围内保持模型效用,同时实现实用的证明性能。策略配额执行实现零违规,隐私采样窗口未检测到可测量的索引泄露。联邦实验证明该系统可与概率审计及带宽约束协同工作。这些结果表明端到端可验证微调在当前参数高效流程中具备可行性,为受监管与去中心化部署填补了关键信任缺口。

0
下载
关闭预览

相关内容

【NeurIPS2023】CQM: 与量化世界模型的课程强化学习
专知会员服务
25+阅读 · 2023年10月29日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【NeurIPS2023】CQM: 与量化世界模型的课程强化学习
专知会员服务
25+阅读 · 2023年10月29日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员