Many available formal verification methods have been shown to be instances of a unified Branch-and-Bound (BaB) formulation. We propose a novel machine learning framework that can be used for designing an effective branching strategy as well as for computing better lower bounds. Specifically, we learn two graph neural networks (GNN) that both directly treat the network we want to verify as a graph input and perform forward-backward passes through the GNN layers. We use one GNN to simulate the strong branching heuristic behaviour and another to compute a feasible dual solution of the convex relaxation, thereby providing a valid lower bound. We provide a new verification dataset that is more challenging than those used in the literature, thereby providing an effective alternative for testing algorithmic improvements for verification. Whilst using just one of the GNNs leads to a reduction in verification time, we get optimal performance when combining the two GNN approaches. Our combined framework achieves a 50\% reduction in both the number of branches and the time required for verification on various convolutional networks when compared to several state-of-the-art verification methods. In addition, we show that our GNN models generalize well to harder properties on larger unseen networks.


翻译:许多可用的正式核查方法被证明是一个统一的分支和组合(BAB)配方的事例。我们提出了一个新的机器学习框架,可用于设计有效的分支战略和计算更低的范围。具体地说,我们学习了两个图形神经网络(GNN),这两个网络都直接将我们想要核查的网络作为图形输入处理,并通过GNN层次向前向后传递。我们用一个GNN来模拟强大的分支超常行为,另一个用来计算对卷轴放松的一种可行的双向解决办法,从而提供一个有效的较低约束。我们提供了一个新的核查数据集,比文献中使用的数据集更具挑战性,从而为检验核查的算法改进提供了有效的替代方法。虽然只使用一个GNNN可以缩短核查时间,但我们在将GNN方法结合起来时,我们取得最佳的性能。我们的联合框架在各种共进网络中,与几个最先进的核查方法相比,可以减少分支的数量和核查时间。此外,我们展示了我们GNNNM模型在更大范围的模型上更难实现整体性。

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
【Cell】神经算法推理,Neural algorithmic reasoning
专知会员服务
28+阅读 · 2021年7月16日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年4月12日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
7+阅读 · 2021年7月5日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年4月12日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
相关论文
Arxiv
13+阅读 · 2021年7月20日
Arxiv
7+阅读 · 2021年7月5日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
6+阅读 · 2018年7月9日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
3+阅读 · 2018年2月11日
Top
微信扫码咨询专知VIP会员