组合优化作为一个问题从根本上不同于识别猫和狗:在无限计算的极限下,这个任务是微不足道的。因此,基于学习的方法的目标是通过学习过去的经验来减少总计算量,这可能是以牺牲解决方案的质量为代价的。
一个训练良好的模型可以减少(相关的)搜索空间的有效大小,但是用于推断模型的计算不能再用于搜索,所以这不是一个有保证的改进。因此,我们应该仔细选择如何以及在何处应用所学的模型:计算你的失败,并让你的失败有意义!
在这次演讲中,我将更深入地讨论一些关于这种权衡的实例。我将提出一些挑战,并提供一些指导方针,可能有助于定义未来的研究方向,以便有效地将深度学习应用于组合优化。