随着基于对比文本-图像对的预训练方法或者模型(contrastive language-image pre-training,CLIP)、聊天生成预训练转 换器(chat generative pre-trained transformer,ChatGPT)、生成预训练转换器4(generative pre-trained transformer-4,GPT-4)等基础 大模型的出现,通用人工智能(artificial general intelligence, AGI)的研究得到快速发展。AGI旨在为人工智能系统赋予更强大的 执行能力,使其能够自主学习、不断进化,解决各种问题和处理不同的任务,从而在多个领域得到广泛应用。这些基础模型 在大规模数据集上进行训练后,能够成功应对多样的下游任务。在这一背景下,Meta公司提出的分割一切模型(segment anything model,SAM)于2023年取得重要突破,在图像分割领域获得了优异的性能,以至于被称为图像分割终结者。其原因之一是, 通过SAM数据引擎方法用三阶段采集的、包含110万图像和超过10亿的掩码的分割一切-十亿(segment anything 1 billion,SA1B)图像分割数据集,同时保证了掩码的品质和多样性,继续导致在分割领域的突破。在SAM开源后不久,科研人员提出了一 系列改进的方法和应用。为了能全面深入了解分割一切模型的发展脉络,优势与不足,本文对SAM的研究进展进行了梳理和 综述。首先,本文从基础模型、数据引擎和数据集等多个方面简要介绍了分割一切模型的背景和核心框架。在此基础上,本 文详细梳理了目前分割一切模型的改进方法,包括提高推理速度和增进预测精度两个关键方向。然后,深入探讨分割一切模 型在图像处理任务、视频相关任务以及其他领域中的广泛应用。这一部分将详细模型在各种任务和数据类型上的卓越性能, 突出其在多个领域的泛用性和发展潜力。最后,对分割一切模型未来的发展方向和潜在应用前景进行了深入分析和讨论。

成为VIP会员查看完整内容
52

相关内容

大型语言模型中的数字遗忘:遗忘方法的综述
专知会员服务
29+阅读 · 4月8日
大模型时代的自动图表理解综述
专知会员服务
61+阅读 · 3月19日
《分布外泛化评估》综述
专知会员服务
36+阅读 · 3月6日
专知会员服务
107+阅读 · 2020年5月21日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
49+阅读 · 2018年12月18日
Seq2seq强化,Pointer Network简介
机器学习算法与Python学习
15+阅读 · 2018年12月8日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
360+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关资讯
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
49+阅读 · 2018年12月18日
Seq2seq强化,Pointer Network简介
机器学习算法与Python学习
15+阅读 · 2018年12月8日
一文概览用于图像分割的CNN
论智
14+阅读 · 2018年10月30日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员