The widespread integration of wearable sensing devices in Internet of Things (IoT) ecosystems, particularly in healthcare, smart homes, and industrial applications, has required robust human activity recognition (HAR) techniques to improve functionality and user experience. Although machine learning models have advanced HAR, they are increasingly susceptible to data poisoning attacks that compromise the data integrity and reliability of these systems. Conventional approaches to defending against such attacks often require extensive task-specific training with large, labeled datasets, which limits adaptability in dynamic IoT environments. This work proposes a novel framework that uses large language models (LLMs) to perform poisoning detection and sanitization in HAR systems, utilizing zero-shot, one-shot, and few-shot learning paradigms. Our approach incorporates \textit{role play} prompting, whereby the LLM assumes the role of expert to contextualize and evaluate sensor anomalies, and \textit{think step-by-step} reasoning, guiding the LLM to infer poisoning indicators in the raw sensor data and plausible clean alternatives. These strategies minimize reliance on curation of extensive datasets and enable robust, adaptable defense mechanisms in real-time. We perform an extensive evaluation of the framework, quantifying detection accuracy, sanitization quality, latency, and communication cost, thus demonstrating the practicality and effectiveness of LLMs in improving the security and reliability of wearable IoT systems.


翻译:可穿戴传感设备在物联网(IoT)生态系统中的广泛集成,特别是在医疗保健、智能家居和工业应用中,需要鲁棒的人体活动识别(HAR)技术以提升功能性和用户体验。尽管机器学习模型已推动HAR的发展,但它们日益容易受到数据投毒攻击的影响,这些攻击会损害系统的数据完整性和可靠性。防御此类攻击的传统方法通常需要大量标注数据集进行特定任务的广泛训练,这在动态物联网环境中限制了适应性。本研究提出了一种新颖框架,利用大语言模型(LLMs)在HAR系统中执行投毒检测与净化,采用零样本、单样本和少样本学习范式。我们的方法融合了\\textit{角色扮演}提示技术,使LLM扮演专家角色以情境化评估传感器异常,以及\\textit{逐步推理}机制,引导LLM从原始传感器数据中推断投毒指标并生成合理的清洁替代方案。这些策略最小化了对大规模数据集标注的依赖,实现了实时、鲁棒且自适应的防御机制。我们对框架进行了全面评估,量化了检测准确率、净化质量、延迟和通信成本,从而证明LLM在提升可穿戴物联网系统安全性和可靠性方面的实用性与有效性。

0
下载
关闭预览

相关内容

战略战斗游戏中基于模糊XAI的形式化验证
专知会员服务
30+阅读 · 2023年11月1日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员