The widespread integration of wearable sensing devices in Internet of Things (IoT) ecosystems, particularly in healthcare, smart homes, and industrial applications, has required robust human activity recognition (HAR) techniques to improve functionality and user experience. Although machine learning models have advanced HAR, they are increasingly susceptible to data poisoning attacks that compromise the data integrity and reliability of these systems. Conventional approaches to defending against such attacks often require extensive task-specific training with large, labeled datasets, which limits adaptability in dynamic IoT environments. This work proposes a novel framework that uses large language models (LLMs) to perform poisoning detection and sanitization in HAR systems, utilizing zero-shot, one-shot, and few-shot learning paradigms. Our approach incorporates \textit{role play} prompting, whereby the LLM assumes the role of expert to contextualize and evaluate sensor anomalies, and \textit{think step-by-step} reasoning, guiding the LLM to infer poisoning indicators in the raw sensor data and plausible clean alternatives. These strategies minimize reliance on curation of extensive datasets and enable robust, adaptable defense mechanisms in real-time. We perform an extensive evaluation of the framework, quantifying detection accuracy, sanitization quality, latency, and communication cost, thus demonstrating the practicality and effectiveness of LLMs in improving the security and reliability of wearable IoT systems.


翻译:可穿戴传感设备在物联网生态系统中的广泛集成,特别是在医疗保健、智能家居和工业应用中,需要鲁棒的人类活动识别技术以提升功能性和用户体验。尽管机器学习模型已推动人类活动识别的发展,但它们日益容易受到数据投毒攻击的影响,这些攻击会损害系统的数据完整性和可靠性。传统的防御方法通常需要利用大规模标注数据集进行大量任务特定训练,这在动态物联网环境中限制了适应性。本研究提出了一种新颖框架,利用大型语言模型通过零样本、单样本和少样本学习范式,在人类活动识别系统中执行投毒检测与数据净化。我们的方法融合了“角色扮演”提示技术,使大型语言模型扮演专家角色以情境化评估传感器异常,并结合“逐步推理”机制,引导模型从原始传感器数据中推断投毒指标并生成合理的清洁替代数据。这些策略最大限度地减少了对大规模数据集整理的依赖,实现了实时、鲁棒且自适应的防御机制。我们对该框架进行了全面评估,量化了检测准确率、净化质量、延迟及通信成本,从而证明了大型语言模型在提升可穿戴物联网系统安全性与可靠性方面的实用性和有效性。

0
下载
关闭预览

相关内容

深度学习模型反演攻击与防御:全面综述
专知会员服务
23+阅读 · 2月3日
战略战斗游戏中基于模糊XAI的形式化验证
专知会员服务
30+阅读 · 2023年11月1日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员