Personal language model-based agents are becoming more widespread for completing tasks on behalf of users; however, this raises serious privacy questions regarding whether these models will appropriately disclose user data. While prior work has evaluated language models on data-sharing scenarios based on general privacy norms, we focus on personalizing language models' privacy decisions, grounding their judgments directly in prior user privacy decisions. Our findings suggest that general privacy norms are insufficient for effective personalization of privacy decisions. Furthermore, we find that eliciting privacy judgments from the model through In-context Learning (ICL) is unreliable to due misalignment with the user's prior privacy judgments and opaque reasoning traces, which make it difficult for the user to interpret the reasoning behind the model's decisions. To address these limitations, we propose ARIEL (Agentic Reasoning with Individualized Entailment Logic), a framework that jointly leverages a language model and rule-based logic for structured data-sharing reasoning. ARIEL is based on formulating personalization of data sharing as an entailment, whether a prior user judgment on a data-sharing request implies the same judgment for an incoming request. Our experimental evaluations on advanced models and publicly-available datasets demonstrate that ARIEL can reduce the F1 score error by $\textbf{39.1%}$ over language model-based reasoning (ICL), demonstrating that ARIEL is effective at correctly judging requests where the user would approve data sharing. Overall, our findings suggest that combining LLMs with strict logical entailment is a highly effective strategy for enabling personalized privacy judgments for agents.


翻译:基于个人语言模型的智能体正日益广泛地用于代表用户完成任务;然而,这引发了严重的隐私问题,即这些模型是否会适当地披露用户数据。尽管先前的研究已基于通用隐私规范评估了语言模型在数据共享场景中的表现,本研究聚焦于语言模型隐私决策的个性化,将其判断直接锚定于用户先前的隐私决策。我们的研究结果表明,通用隐私规范不足以实现隐私决策的有效个性化。此外,我们发现通过上下文学习(ICL)从模型中获取隐私判断并不可靠,原因在于其与用户先前隐私判断的不一致性以及不透明的推理轨迹,这使得用户难以理解模型决策背后的推理逻辑。为应对这些局限性,我们提出了ARIEL(基于个体化蕴含逻辑的智能体推理)框架,该框架联合利用语言模型与基于规则的逻辑进行结构化数据共享推理。ARIEL的核心在于将数据共享的个性化问题形式化为蕴含关系:即用户对先前数据共享请求的判断是否意味着对当前传入请求的相同判断。我们在先进模型及公开数据集上的实验评估表明,ARIEL能将F1分数误差较基于语言模型的推理(ICL)降低$\\textbf{39.1\\%}$,证明ARIEL能有效正确判断用户会批准数据共享的请求。总体而言,我们的研究结果表明,将大语言模型与严格逻辑蕴含相结合,是为智能体实现个性化隐私判断的高效策略。

0
下载
关闭预览

相关内容

【CIKM2020】多模态知识图谱推荐系统,Multi-modal KG for RS
专知会员服务
98+阅读 · 2020年8月24日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员