The widespread adoption of deep neural networks (DNNs) requires efficient techniques for verifying their safety. DNN verifiers are complex tools, which might contain bugs that could compromise their soundness and undermine the reliability of the verification process. This concern can be mitigated using proofs: artifacts that are checkable by an external and reliable proof checker, and which attest to the correctness of the verification process. However, such proofs tend to be extremely large, limiting their use in many scenarios. In this work, we address this problem by minimizing proofs of unsatisfiability produced by DNN verifiers. We present algorithms that remove facts which were learned during the verification process, but which are unnecessary for the proof itself. Conceptually, our method analyzes the dependencies among facts used to deduce UNSAT, and removes facts that did not contribute. We then further minimize the proof by eliminating remaining unnecessary dependencies, using two alternative procedures. We implemented our algorithms on top of a proof producing DNN verifier, and evaluated them across several benchmarks. Our results show that our best-performing algorithm reduces proof size by 37%-82% and proof checking time by 30%-88%, while introducing a runtime overhead of 7%-20% to the verification process itself.


翻译:深度神经网络(DNNs)的广泛应用需要高效的验证技术来确保其安全性。DNN验证器是复杂的工具,可能存在漏洞,这些漏洞可能损害其可靠性并削弱验证过程的可信度。这一问题可通过使用证明来缓解:证明是由外部可靠的证明检查器可验证的产物,用于证实验证过程的正确性。然而,此类证明往往极其庞大,限制了其在许多场景中的应用。在本工作中,我们通过最小化DNN验证器产生的不可满足性证明来解决这一问题。我们提出了算法,用于移除在验证过程中学习但对证明本身不必要的事实。从概念上讲,我们的方法分析了用于推导UNSAT的事实之间的依赖关系,并移除了未贡献的事实。随后,我们通过两种替代程序消除剩余的不必要依赖,进一步最小化证明。我们在一个生成证明的DNN验证器上实现了我们的算法,并在多个基准测试中进行了评估。结果表明,我们性能最佳的算法将证明大小减少了37%-82%,证明检查时间减少了30%-88%,同时为验证过程本身引入了7%-20%的运行时间开销。

0
下载
关闭预览

相关内容

【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
专知会员服务
30+阅读 · 2020年9月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员