Side-channel analysis (SCA) poses a real-world threat by exploiting unintentional physical signals to extract secret information from secure devices. Evaluation labs also use the same techniques to certify device security. In recent years, deep learning has emerged as a prominent method for SCA, achieving state-of-the-art attack performance at the cost of interpretability. Understanding how neural networks extract secrets is crucial for security evaluators aiming to defend against such attacks, as only by understanding the attack can one propose better countermeasures. In this work, we apply mechanistic interpretability to neural networks trained for SCA, revealing \textit{how} models exploit \textit{what} leakage in side-channel traces. We focus on sudden jumps in performance to reverse engineer learned representations, ultimately recovering secret masks and moving the evaluation process from black-box to white-box. Our results show that mechanistic interpretability can scale to realistic SCA settings, even when relevant inputs are sparse, model accuracies are low, and side-channel protections prevent standard input interventions.


翻译:侧信道分析通过利用非预期的物理信号从安全设备中提取机密信息,构成了现实世界中的安全威胁。评估实验室同样采用此类技术对设备安全性进行认证。近年来,深度学习已成为侧信道分析的重要方法,以可解释性为代价实现了最先进的攻击性能。对于旨在防御此类攻击的安全评估者而言,理解神经网络如何提取机密信息至关重要——只有理解攻击机制,才能提出更有效的防护对策。本研究将机制可解释性方法应用于为侧信道分析训练的神经网络,揭示了模型如何利用侧信道轨迹中的何种泄漏信息。我们聚焦于性能突变现象以逆向工程学习到的表征,最终成功恢复秘密掩码,并将评估过程从黑盒转向白盒。研究结果表明,即使在相关输入稀疏、模型准确率较低且侧信道防护措施阻碍标准输入干预的现实场景下,机制可解释性方法仍可扩展至实际侧信道分析环境。

0
下载
关闭预览

相关内容

图对抗防御研究进展
专知会员服务
39+阅读 · 2021年12月13日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员