尽管现有的神经网络方法在求解车辆路径问题(VRP)时表现出良好的效率,并减少了对领域专业知识的依赖,但它们在鲁棒性方面存在严重问题——其性能在面对带有精心设计扰动的干净实例时显著下降。为提升鲁棒性,我们提出了一种基于集成的协作神经框架(CNF),用于防御神经VRP方法,这一方向在文献中尚未得到充分探讨。对于给定的神经VRP方法,我们以对抗性训练的方式,让多个模型协作,以协同提升对抗攻击的鲁棒性,同时在干净实例上提升标准泛化能力。我们设计了一个神经路由器,可以灵活地在各个模型之间分配训练实例,从而增强整体的负载平衡和协作效果。大量实验证实,CNF在防御不同神经VRP方法下的各种攻击方面具有出色的效果和通用性。值得注意的是,该方法在基准实例上也表现出了显著的分布外泛化能力。

成为VIP会员查看完整内容
13

相关内容

【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
19+阅读 · 3月30日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
44+阅读 · 2021年12月14日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
37+阅读 · 2020年6月22日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
13+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员