Multimodal Large Language Models (MLLMs) achieve impressive performance once optimized on massive datasets. Such datasets often contain sensitive or copyrighted content, raising significant data privacy concerns. Regulatory frameworks mandating the 'right to be forgotten' drive the need for machine unlearning. This technique allows for the removal of target data without resource-consuming retraining. However, while well-studied for text, visual concept unlearning in MLLMs remains underexplored. A primary challenge is precisely removing a target visual concept without disrupting model performance on related entities. To address this, we introduce AUVIC, a novel visual concept unlearning framework for MLLMs. AUVIC applies adversarial perturbations to enable precise forgetting. This approach effectively isolates the target concept while avoiding unintended effects on similar entities. To evaluate our method, we construct VCUBench. It is the first benchmark designed to assess visual concept unlearning in group contexts. Experimental results demonstrate that AUVIC achieves state-of-the-art target forgetting rates while incurs minimal performance degradation on non-target concepts.


翻译:多模态大语言模型(MLLMs)在基于海量数据集优化后展现出卓越的性能。然而,此类数据集常包含敏感或受版权保护的内容,引发了显著的数据隐私担忧。监管框架要求保障“被遗忘权”,这推动了机器遗忘技术的需求。该技术允许在不进行资源密集型重新训练的情况下移除目标数据。然而,尽管文本领域的遗忘技术已得到充分研究,MLLMs中视觉概念的遗忘仍处于探索不足的状态。一个核心挑战在于精确移除目标视觉概念的同时,避免对模型在相关实体上的性能造成干扰。为解决这一问题,我们提出了AUVIC,一种面向MLLMs的新型视觉概念遗忘框架。AUVIC通过施加对抗性扰动来实现精确遗忘。该方法能有效隔离目标概念,同时避免对相似实体产生意外影响。为评估我们的方法,我们构建了VCUBench,这是首个专门用于评估群体情境下视觉概念遗忘性能的基准测试。实验结果表明,AUVIC在实现最先进的目标遗忘率的同时,对非目标概念的性能影响极小。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
31+阅读 · 2023年8月28日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员