“悟道”公开课 | 120万+奖金,玩转中国超大模型!

2021 年 11 月 11 日 PaperWeekly

图片出处:https://bmk.sh/2020/05/29/GPT-3-A-Brief-Summary/


如果你错过了上一波深度学习引发的NLP范式转换,不要再错过这一波超大预训练模型的崛起。

现在,有一个重要机会摆在你面前:明晚,“悟道”公开课将正式开课 (地址:http://live.bilibili.com/21887724) ,手把手教你使用著名大规模预训练模型“悟道”开发自己的智能应用,更有 120万+ “悟道之巅”比赛奖金等你拿!


事实上,以OpenAI 的GPT-3 在 2020年问世为起点,这几年,预训练模型对NLP领域带来了颠覆性的影响为代表。大量令人印象深刻的演示如雨后春笋般涌现,它们利用GPT-3的泛化能力来完成各式各样的任务。最令人兴奋的是,即使在如此大规模的情况下,模型在性能上仍能平稳扩展而非停滞不前,这也就意味着,随着参数的增加,预训练模型还可以表现得更好。



图片来源:李宏毅ppt

这是一个相当有诱惑力的承诺。但是有一道门槛横亘在我们面前:它没有公开发布。 

OpenAI 选择将其商业化,并仅通过付费 API 提供访问权限。鉴于 OpenAI 的盈利性质,这个操作无可厚非。因此,自去年以来,不少商业机构和学术团队都在致力于创建自己的 GPT-3 。

其中最值得留意的一个超大模型是“悟道”。

“悟道”由智源研究院学术副院长、清华大学唐杰教授领衔,包括北京大学、清华大学、中国人民大学、中国科学院等单位的100余位AI科学家团队联合开发,参数达到1.75万亿参数。

目前悟道已经进化到2.0版本。它已经不仅仅是个语言模型,正在攀登文本和视觉两大座大山的悟道2.0,在问答、绘画、作诗、视频等任务中逼近图灵测试,并训练出包括中文、多模态、认知、蛋白质预测在内的系列模型,是我国人工智能应用基础设施建设的里程碑。

另一个激动人心的好消息是,现在,“悟道”核心团队将推出首档公开课,手把手教你理解并应用“悟道”,进一步挖掘“悟道”的潜力。

而且,明晚开始的第一讲,可以说是面向所有人的大模型科普课,从大规模预训练模型与传统机器学习模型的区别、机器学习范式的变化和GPT-3讲起,让你与预训练模型这一人工智能领域最重要的趋势保持同步。

如果你已经对大模型非常熟悉,一直在等待机会亲自体验使用大模型开发自己的1应用,那么,本系列课程更加不容错过:

1、与公开课紧密相关的“悟道之巅”大赛,准备了120万奖金等你来拿。

2、最全面的悟道背景、主要技术与训练方法,全部免费奉上。

“悟道之巅”系列公开课第一讲详情如下:



快来预约学习吧(地址:http://live.bilibili.com/21887724)!“数据实战派”将同步发出系列课程相关内容,敬请关注!

 附:“悟道之巅”大赛信息 

1、大赛赛程
8月23日,初赛 启动
10月,先锋奖评选
12月下旬,初赛提交截止,评选复赛队伍进行答辩

2、奖项设置
大赛奖金:100万元
一等奖:1支队伍,20万元
二等奖:2支队伍,10万元
三等奖:6支队伍,5万元
优胜奖:30支队伍,1万元
(另有20万特殊奖项设置,详情见比赛官网)

3、报名和交流
大赛官网:https://wudaoai.cn/summit  (点击文末“阅读原文”即可访问)
比赛讨论区:https://baai.org/l/wudaosummit
微信交流群:

登录查看更多
0

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
斯坦福大学NLU公开课CS224U来了,视频代码PPT都有
专知会员服务
33+阅读 · 2022年4月11日
中科院自动化所徐波团队最新《视觉-语言预训练》综述
专知会员服务
65+阅读 · 2022年2月23日
超大规模智能模型产业发展报告(附下载)
专知会员服务
69+阅读 · 2021年9月25日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
霍普金斯《操作系统原理》2020课程,不可错过!
专知会员服务
35+阅读 · 2020年10月27日
“悟道”公开课第五讲 | 应用部署及思路分享
PaperWeekly
0+阅读 · 2021年11月22日
2021 MAXP大赛 | 图机器学习赛道,奖金40W
图与推荐
0+阅读 · 2021年10月10日
2019语言与智能技术竞赛报名开启
中国计算机学会
16+阅读 · 2019年2月26日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员