无监督多对象表示学习依赖于归纳偏差来指导发现以对象为中心的表示。然而,我们观察到,学习这些表征的方法要么是不切实际的,因为长时间的训练和大量的记忆消耗,要么是放弃了关键的归纳偏见。在这项工作中,我们引入了EfficientMORL,一个有效的无监督学习框架的对象中心表示。我们证明了同时要求对称性和解缠性所带来的优化挑战实际上可以通过高成本的迭代摊销推理来解决,通过设计框架来最小化对它的依赖。我们采用两阶段的方法进行推理:首先,分层变分自编码器通过自底向上的推理提取对称的解缠表示,其次,轻量级网络使用自顶向下的反馈来改进表示。在训练过程中所采取的细化步骤的数量根据课程减少,因此在测试时零步骤的模型达到了99.1%的细化分解性能。我们在标准多目标基准上演示了强大的对象分解和解缠,同时实现了比以前最先进的模型快一个数量级的训练和测试时间推断。
https://www.zhuanzhi.ai/paper/f29b88ee56208601f787cc791e3c7414