Password security hinges on an accurate understanding of the techniques adopted by attackers. However, current studies mostly rely on probabilistic password models that are imperfect proxies of real-world guessing strategies. The main reason is that attackers rely on very pragmatic methods such as dictionary attacks. Unfortunately, it is inherently difficult correctly modeling those strategies. To be representative of the actual threat, dictionary attacks must be thoughtfully configured according to a process that requires domain-knowledge and expertise that cannot be easily replicated by researchers and security practitioners. The consequence of inaccurately calibrating those attacks is the unreliability of password security analysis, impaired by measurement bias. In the present work, we introduce new guessing techniques that make dictionary attacks consistently more resilient to inadequate configurations. Our framework allows dictionary attacks to self-heal and converge towards optimal attacks' performance, requiring no supervision or domain-knowledge. To achieve this: (1) We use a deep neural network to model and then simulate the proficiency of expert adversaries. (2) Then, we introduce automatic dynamic strategies within dictionary attacks to mimic experts' ability to adapt their guessing strategies on the fly by incorporating knowledge on their targets. Our techniques enable robust and sound password strength estimates, eventually reducing bias in modeling real-world threats in password security.


翻译:密码安全取决于对攻击者所采用的技术的准确理解。然而,目前的研究主要依赖概率密码模型,而这种密码模型不完全是真实世界的猜测战略的替代物。主要原因是攻击者依赖非常实用的方法,例如字典攻击。不幸的是,这些战略的模型本身就很困难。要代表实际威胁,字典攻击必须经过深思熟虑的配置,这一过程需要域知识和专门知识,研究人员和安全从业人员无法轻易复制。错误地校准这些攻击的后果是密码安全分析不可靠,受到测量偏差的损害。在目前的工作中,我们采用新的猜测技术,使字典攻击持续地更能适应不适当的配置。我们的框架允许字典攻击自我健康,使最佳攻击性能趋于一致,不需要监督或域知识。要做到这一点,(1) 我们使用深层神经网络来模拟和模拟专家对手的熟练程度。(2) 然后,我们在字典攻击中引入自动动态的战略,以便模拟专家的能力,通过将知识纳入目标来调整其测算策略。我们的技术能够使实际安全性能减少模型中的偏差。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【Facebook AI】低资源机器翻译,74页ppt
专知会员服务
29+阅读 · 2020年4月8日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
0+阅读 · 2020年12月2日
Arxiv
7+阅读 · 2018年12月26日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员