在计算机视觉中,生成高质量的图像分割掩码是一个基本问题。最近的研究探索了大规模的监督训练,以实现几乎任何图像风格的零样本分割,以及无监督训练,以实现无需密集注释的分割。然而,构建一个能够在零样本情况下、无需任何注释即可分割任何对象的模型仍然充满挑战。在本文中,我们提议利用稳定扩散模型中的自监督学习层来实现这一目标,因为预训练的稳定扩散模型已经在其注意力层中学习了对象的内在概念。具体来说,我们引入了一个简单而有效的基于测量KL散度的注意力图之间的迭代合并过程,以将它们合并成有效的分割掩码。所提出的方法不需要任何训练或语言依赖,就可以为任何图像提取高质量的分割。在COCO-Stuff-27上,我们的方法在像素准确度上绝对超过了之前的无监督零样本SOTA方法26%,在平均IoU上超过了17%。项目页面位于https://sites.google.com/view/diffseg/home。

成为VIP会员查看完整内容
28

相关内容

扩散模型是近年来快速发展并得到广泛关注的生成模型。它通过一系列的加噪和去噪过程,在复杂的图像分布和高斯分布之间建立联系,使得模型最终能将随机采样的高斯噪声逐步去噪得到一张图像。
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
21+阅读 · 2021年11月29日
专知会员服务
22+阅读 · 2021年9月27日
专知会员服务
16+阅读 · 2021年9月7日
专知会员服务
44+阅读 · 2021年1月31日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
专知会员服务
41+阅读 · 2020年2月20日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
21+阅读 · 2021年11月29日
专知会员服务
22+阅读 · 2021年9月27日
专知会员服务
16+阅读 · 2021年9月7日
专知会员服务
44+阅读 · 2021年1月31日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
专知会员服务
41+阅读 · 2020年2月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员