Previous works have established solid foundations for neural set functions, complete with architectures which preserve the necessary properties for operating on sets, such as invariance to permutations of the set elements. Subsequent work has highlighted the utility of Mini-Batch Consistency (MBC), the ability to sequentially process any permutation of a set partition scheme (e.g. streaming chunks of data) while maintaining consistency guarantees on the output, although there are limited options for MBC architectures. We propose a framework which can convert an arbitrary non-MBC model to one which satisfies MBC. In doing so, we allow all set functions to universally be considered in an MBC setting (UMBC). Additionally, we explore a Monte Carlo dropout strategy made possible by our framework which allows performing Monte Carlo dropout on streaming sets while never seeing the entire set at once. We validate UMBC with theoretical proofs, unit tests, and also provide qualitative/quantitative experiments on Gaussian data, clean and corrupted point cloud classification, and amortized clustering on ImageNet. Additionally, we investigate the probabilistic calibration of set-functions under test-time distributional shifts. Our results demonstrate the utility of universal mini-batch consistency, and we further discover that our dropout strategy improves uncertainty calibration.
翻译:先前的作品为神经设定功能奠定了坚实基础, 其结构完整, 维护了在机组运行所需的必要特性, 如对设定元素的变异性。 随后的工作突出显示了MMBC(MBC)的效用, 即MBC(MBC) 的效用, 能够按顺序处理设定的分区方案的任何变异( 数据流块), 同时又保持产出的一致性保障, 尽管 MBC 结构的选择有限 。 我们提出了一个框架, 可以将任意的非MBC 模型转换为满足 MBC 的模型。 这样, 我们允许在MBC( MMBC) 设置中普遍考虑所有设定的功能 。 此外, 我们探索了蒙特卡洛的辍学战略, 这个框架使得Monte Carlo 能够执行流集的辍学, 但却从来没有一次看到整个设置。 我们用理论证据、 单位测试来验证 MMMBC, 并且提供关于高斯数据、 清洁和腐败点的云分级分类以及图像网络的重新组合。 此外, 我们调查了在测试时, 我们的校验校正下, 校正 校正 校正 校 校 校 校 校 校 校 校 校 校 校 校 我们 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校