State-of-the-art neural network verifiers operate by encoding neural network verification as constraint satisfaction problems. When dealing with standard piecewise-linear activation functions, such as ReLUs, verifiers typically employ branching heuristics that break a complex constraint satisfaction problem into multiple, simpler problems. The verifier's performance depends heavily on the order in which this branching is performed: a poor selection may give rise to exponentially many sub-problem, hampering scalability. Here, we focus on the setting where multiple verification queries must be solved for the same neural network. The core idea is to use past experience to make good branching decisions, expediting verification. We present a reinforcement-learning-based branching heuristic that achieves this, by applying a learning from demonstrations (DQfD) techniques. Our experimental evaluation demonstrates a substantial reduction in average verification time and in the average number of iterations required, compared to modern splitting heuristics. These results highlight the great potential of reinforcement learning in the context of neural network verification.


翻译:最先进的神经网络验证器通过将神经网络验证编码为约束满足问题来运行。在处理标准的分段线性激活函数(如ReLU)时,验证器通常采用分支启发式方法,将复杂的约束满足问题分解为多个更简单的问题。验证器的性能在很大程度上取决于分支执行的顺序:选择不当可能导致子问题数量呈指数级增长,从而影响可扩展性。本文关注于同一神经网络需要解决多个验证查询的场景。核心思想是利用过去的经验做出良好的分支决策,以加速验证过程。我们提出了一种基于强化学习的分支启发式方法,通过应用演示学习(DQfD)技术实现这一目标。实验评估表明,与现代分割启发式方法相比,该方法显著降低了平均验证时间和平均所需迭代次数。这些结果凸显了强化学习在神经网络验证领域的巨大潜力。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年5月28日
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
16+阅读 · 2017年8月3日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员