随着人工智能技术的飞速发展,通用大模型(GLMs)已经成为人工智能领域的重要研 究方向。通用大模型拥有超大规模参数,通过大规模数据进行训练,具备强大的学习和推理 能力。这些模型在自然语言处理、图像识别、代码生成等多种任务中展现出卓越的能力。回 顾了通用大模型的发展历程,梳理关键技术节点,从早期基于规则的系统和传统机器学习模 型,到深度学习的崛起,再到 Transformer 架构,以及 GPT 系列及国内外通用大模型的进展。 尽管GLMs在多个领域取得了显著进展,但其发展也面临诸多挑战,包括计算资源需求、数据 偏见与伦理问题及模型的解释性与透明性。分析了这些挑战,并探讨了GLMs未来发展的5 个关键方向:模型优化、多模态学习、具情感大模型、数据与知识双驱动以及伦理与社会影 响。通过这些策略,通用大模型有望在未来实现更广泛和深入的应用,推动人工智能技术的 持续进步。随着人工智能技术的飞速发展,通用大模型 (general large models,GLMs)已经成为人工智能领 域的重要研究方向,通常具备以下特点。 1)大规模。通用大模型通常拥有大量的参 数,从几十亿至上千亿参数不等,通过大规模数据 进行训练,从而具备强大的学习和推理能力。 2)预训练—微调。通用大模型通常采用预训 练和微调的策略。首先在大规模未标注数据上进 行无监督或自监督预训练,然后通过有监督的微调 适应特定任务。 3)通用性。通用大模型具备广泛的适用性, 可以处理不同类型的数据和任务,如文本、图像、音 频等。 4)多模态。一些通用大模型能够处理多种模 态的数据,如文本与图像结合,体现了广泛的应用 潜力(图1)。 5)高度复杂。由于拥有大量参数和复杂的架 构,通用大模型具备强大的表现力和学习能力,但 是,同时也面临着计算资源需求高、模型解释性差 等挑战。通用大模型为实现更高级的理解、交互和生成 任务提供了可能,被广泛认为是推动人工智能技术 向通用智能发展的关键因素[1] 。自生成式预训练变 换器(generative pre-trained transformer,GPT)系列 模型问世以来,这一领域取得了长足的进步。随着 以GPT为代表的大模型不断涌现,研究人员已深刻 认识到通用大模型不仅代表着当今人工智能技术 的前沿,更预示着未来智能系统的发展方向。 通用大模型的发展得益于深度学习的进步以 及计算能力的提升。Transformer架构的引入,打破 了传统循环神经网络在处理长序列任务时的瓶颈, 开启了大规模预训练模型的时代。GPT 系列模型 进一步展现了通过大规模预训练来学习通用知识 的潜力,为实现通用人工智能(artificial general in⁃ telligence,AGI)奠定了基础。 本文探讨通用大模型的演进路线,分析其发展 历程、面临的挑战及未来可能的方向。

成为VIP会员查看完整内容
52

相关内容

脑启发的人工智能:全面综述
专知会员服务
20+阅读 · 8月30日
可解释图推荐系统
专知会员服务
17+阅读 · 8月4日
大模型的模型压缩与有效推理综述
专知会员服务
36+阅读 · 7月8日
多模态大语言模型
专知会员服务
57+阅读 · 6月25日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
48+阅读 · 5月28日
大型语言模型供应链
专知会员服务
40+阅读 · 4月29日
贝叶斯迁移学习: 迁移学习的概率图模型概述
专知会员服务
66+阅读 · 2021年10月17日
多模态预训练模型简述
专知会员服务
108+阅读 · 2021年4月27日
专知会员服务
220+阅读 · 2020年5月6日
基于模型的强化学习综述
专知
25+阅读 · 2022年7月13日
时空序列预测方法综述
专知
20+阅读 · 2020年10月19日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
深度学习可解释性研究进展
专知
18+阅读 · 2020年6月26日
层级强化学习概念简介
CreateAMind
15+阅读 · 2019年6月9日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
统计学常用数据类型
论智
17+阅读 · 2018年7月6日
从概率论到多分类问题:综述贝叶斯统计分类
机器之心
12+阅读 · 2017年9月28日
MNIST入门:贝叶斯方法
Python程序员
22+阅读 · 2017年7月3日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
35+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
372+阅读 · 2023年3月31日
Arxiv
61+阅读 · 2023年3月26日
Arxiv
132+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关主题
相关VIP内容
脑启发的人工智能:全面综述
专知会员服务
20+阅读 · 8月30日
可解释图推荐系统
专知会员服务
17+阅读 · 8月4日
大模型的模型压缩与有效推理综述
专知会员服务
36+阅读 · 7月8日
多模态大语言模型
专知会员服务
57+阅读 · 6月25日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
48+阅读 · 5月28日
大型语言模型供应链
专知会员服务
40+阅读 · 4月29日
贝叶斯迁移学习: 迁移学习的概率图模型概述
专知会员服务
66+阅读 · 2021年10月17日
多模态预训练模型简述
专知会员服务
108+阅读 · 2021年4月27日
专知会员服务
220+阅读 · 2020年5月6日
相关资讯
基于模型的强化学习综述
专知
25+阅读 · 2022年7月13日
时空序列预测方法综述
专知
20+阅读 · 2020年10月19日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
深度学习可解释性研究进展
专知
18+阅读 · 2020年6月26日
层级强化学习概念简介
CreateAMind
15+阅读 · 2019年6月9日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
统计学常用数据类型
论智
17+阅读 · 2018年7月6日
从概率论到多分类问题:综述贝叶斯统计分类
机器之心
12+阅读 · 2017年9月28日
MNIST入门:贝叶斯方法
Python程序员
22+阅读 · 2017年7月3日
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
35+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员