The integration of Large Language Models (LLMs) into wearable sensing is creating a new class of mobile applications capable of nuanced human activity understanding. However, the reliability of these systems is critically undermined by their vulnerability to prompt injection attacks, where attackers deliberately input deceptive instructions into LLMs. Traditional defenses, based on static filters and rigid rules, are insufficient to address the semantic complexity of these new attacks. We argue that a paradigm shift is needed -- from passive filtering to active protection and autonomous reasoning. We introduce AegisAgent, an autonomous agent system designed to ensure the security of LLM-driven HAR systems. Instead of merely blocking threats, AegisAgent functions as a cognitive guardian. It autonomously perceives potential semantic inconsistencies, reasons about the user's true intent by consulting a dynamic memory of past interactions, and acts by generating and executing a multi-step verification and repair plan. We implement AegisAgent as a lightweight, full-stack prototype and conduct a systematic evaluation on 15 common attacks with five state-of-the-art LLM-based HAR systems on three public datasets. Results show it reduces attack success rate by 30\% on average while incurring only 78.6 ms of latency overhead on a GPU workstation. Our work makes the first step towards building secure and trustworthy LLM-driven HAR systems.


翻译:将大语言模型(LLMs)集成到可穿戴传感中,正在催生一类能够细致理解人类活动的新型移动应用。然而,这些系统的可靠性因其易受提示注入攻击而受到严重破坏,攻击者通过向LLMs输入蓄意的欺骗性指令来实施此类攻击。基于静态过滤器和刚性规则的传统防御方法,不足以应对这些新型攻击的语义复杂性。我们认为,需要一种范式转变——从被动过滤转向主动保护和自主推理。我们提出了AegisAgent,一个旨在保障LLM驱动的HAR系统安全的自主代理系统。AegisAgent不仅仅阻止威胁,它更充当一个认知守护者。它能够自主感知潜在的语义不一致性,通过查询动态交互记忆来推理用户的真实意图,并通过生成并执行一个多步骤的验证与修复计划来采取行动。我们将AegisAgent实现为一个轻量级的全栈原型,并在三个公共数据集上,针对五种最先进的基于LLM的HAR系统,对15种常见攻击进行了系统性评估。结果表明,它平均降低了30%的攻击成功率,而在GPU工作站上仅产生78.6毫秒的延迟开销。我们的工作为构建安全可信的LLM驱动的HAR系统迈出了第一步。

0
下载
关闭预览

相关内容

【KDD2024】针对图提示学习的跨上下文后门攻击
专知会员服务
21+阅读 · 2024年6月15日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员