Precise access control decisions are crucial to the security of both traditional applications and emerging agent-based systems. Typically, these decisions are made by users during app installation or at runtime. Due to the increasing complexity and automation of systems, making these access control decisions can add a significant cognitive load on users, often overloading them and leading to suboptimal or even arbitrary access control decisions. To address this problem, we propose to leverage the processing and reasoning capabilities of large language models (LLMs) to make dynamic, context-aware decisions aligned with the user's security preferences. For this purpose, we conducted a user study, which resulted in a dataset of 307 natural-language privacy statements and 14,682 access control decisions made by users. We then compare these decisions against those made by two versions of LLMs: a general and a personalized one, for which we also gathered user feedback on 1,446 of its decisions. Our results show that in general, LLMs can reflect users' preferences well, achieving up to 86\% accuracy when compared to the decision made by the majority of users. Our study also reveals a crucial trade-off in personalizing such a system: while providing user-specific privacy preferences to the LLM generally improves agreement with individual user decisions, adhering to those preferences can also violate some security best practices. Based on our findings, we discuss design and risk considerations for implementing a practical natural-language-based access control system that balances personalization, security, and utility.


翻译:精确的访问控制决策对于传统应用和新兴的基于代理系统的安全性至关重要。通常,这些决策由用户在应用安装时或运行时做出。由于系统日益复杂和自动化,制定这些访问控制决策会给用户带来显著的认知负担,常常导致用户超负荷,进而做出次优甚至随意的访问控制决策。为解决这一问题,我们提出利用大型语言模型(LLMs)的处理和推理能力,做出动态、上下文感知且符合用户安全偏好的决策。为此,我们开展了一项用户研究,收集了307条自然语言隐私声明和14,682条用户访问控制决策的数据集。随后,我们将这些决策与两种版本的LLMs(通用版本和个性化版本)的决策进行比较,并收集了用户对其中1,446条个性化决策的反馈。结果表明,总体上LLMs能够较好地反映用户偏好,与多数用户决策相比,准确率最高可达86%。我们的研究还揭示了此类系统个性化过程中的一个关键权衡:虽然向LLM提供用户特定的隐私偏好通常能提高与个体用户决策的一致性,但遵循这些偏好也可能违反某些安全最佳实践。基于研究发现,我们讨论了实现一个实用的基于自然语言的访问控制系统的设计与风险考量,该系统需在个性化、安全性和实用性之间取得平衡。

0
下载
关闭预览

相关内容

AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知会员服务
22+阅读 · 2022年1月4日
专知会员服务
25+阅读 · 2021年6月15日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
39+阅读 · 2020年6月22日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月15日
VIP会员
相关基金
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员