成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
“悟道”公开课第二讲丨如何优化大模型输出结果
2021 年 11 月 15 日
PaperWeekly
图片出处:https://bmk.sh/2020/05/29/GPT-3-A-Brief-Summary/
如果你错过了上一波深度学习引发的NLP范式转换,不要再错过这一波超大预训练模型的崛起。
现在,有一个重要机会摆在你面前:“悟道”系列公开课正式开课
(地址:http://live.bilibili.com/21887724)
,手把手教你使用著名大规模预训练模型
“悟道”
开发自己的智能应用,
更有
120万+
“悟道之巅”比赛奖金等你拿!
事实上,以OpenAI 的GPT-3 在 2020年问世为起点,这几年,预训练模型对NLP领域带来了颠覆性的影响为代表。大量令人印象深刻的演示如雨后春笋般涌现,它们利用GPT-3的泛化能力来完成各式各样的任务。最令人兴奋的是,即使在如此大规模的情况下,模型在性能上仍能平稳扩展而非停滞不前,这也就意味着,随着参数的增加,预训练模型还可以表现得更好。
图片来源:李宏毅ppt
这是一个相当有诱惑力的承诺。但是有一道门槛横亘在我们面前:它没有公开发布。
OpenAI 选择将其商业化,并仅通过付费 API 提供访问权限。鉴于 OpenAI 的盈利性质,这个操作无可厚非。因此,自去年以来,不少商业机构和学术团队都在致力于创建自己的 GPT-3 。
其中最值得留意的一个超大模型是“悟道”。
“悟道”由智源研究院学术副院长、清华大学唐杰教授领衔,包括北京大学、清华大学、中国人民大学、中国科学院等单位的100余位AI科学家团队联合开发,参数达到1.75万亿参数。
目前悟道已经进化到2.0版本。它已经不仅仅是个语言模型,正在攀登文本和视觉两大座大山的悟道2.0,在问答、绘画、作诗、视频等任务中逼近图灵测试,并训练出包括中文、多模态、认知、蛋白质预测在内的系列模型,是我国人工智能应用基础设施建设的里程碑。
另一个激动人心的好消息是,
现在,“悟道”核心团队将推出首档公开课,手把手教你理解并应用“悟道”,进一步挖掘“悟道”的潜力。
11月15日悟道之巅系列公开课第二讲将于晚7点开课!第二讲将由悟道团队的研发工程师杜冀中为大家详细讲解如何针对应用场景对悟道大模型的输出结果进行优化。
如果你错过了第一讲课程内容也无需担心,直戳下方链接查看第一讲课程全程回顾:
https://www.bilibili.com/video/BV1M44y1v7FJ?spm_id_from=333.999.0.0
“悟道之巅”系列公开课第二讲详情如下:
快来预约学习吧
(地址:http://live.bilibili.com/21887724)
!“数据实战派”将同步发出系列课程相关内容,敬请关注!
附:“悟道之巅”大赛信息
1、大赛赛程
8月23日,初赛启动
10月,先锋奖评选
12月下旬,初赛提交截止,入围队伍答辩,角逐最终大奖。
2、奖项设置
大赛奖金:100万元
一等奖:1支队伍,20万元
二等奖:2支队伍,10万元
三等奖:6支队伍,5万元
优胜奖:30支队伍,1万元
(另有20万特殊奖项设置,详情见比赛官网)
3、报名和交流
大赛官网:https://wudaoai.cn/summit
(点击文末“阅读原文”即可访问)
比赛讨论区:https://baai.org/l/wudaosummit
微信交流群:
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
大模型
关注
190
大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
吴恩达知乎问答:如何系统学习机器学习?
专知会员服务
20+阅读 · 2022年4月10日
超大规模智能模型产业发展报告(附下载)
专知会员服务
76+阅读 · 2021年9月25日
【ICML2021】逆约束强化学习
专知会员服务
32+阅读 · 2021年9月7日
1000层的GNN效果如何?ICML2021论述训练1000层的图神经网络大模型!
专知会员服务
36+阅读 · 2021年6月16日
【AAAI2021】通过知识到文本转换来测试知识增强的常识性问题回答
专知会员服务
28+阅读 · 2021年1月17日
【普林斯顿陈丹琦团队】使预训练语言模型成为更好的少样本学习器
专知会员服务
31+阅读 · 2021年1月4日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
【干货书】Pytorch自然语言处理,210页pdf
专知会员服务
164+阅读 · 2020年10月30日
【ICML2020】机器学习产品生产部署流程,54页ppt讲述实际ML生产部署
专知会员服务
52+阅读 · 2020年7月18日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
“通用大模型”趋势下,AI未来当如何?
CSDN
3+阅读 · 2022年3月10日
黑箱优化:大规模语言模型的一种落地方式
PaperWeekly
0+阅读 · 2022年1月20日
大模型悟道2.0开放APP开发接口,百万奖金智能应用开发大赛进入高潮阶段
机器之心
0+阅读 · 2021年12月6日
“中国GPT-3”开放APP开发接口,百万奖金智能应用开发大赛同步启动
学术头条
0+阅读 · 2021年11月29日
“悟道”公开课第五讲 | 应用部署及思路分享
PaperWeekly
0+阅读 · 2021年11月22日
“悟道”公开课第四讲丨悟道开发案例:悟空策论——议论文写作平台
PaperWeekly
0+阅读 · 2021年11月20日
“悟道”公开课第三讲丨应用案例讲解:从对话到问答
PaperWeekly
0+阅读 · 2021年11月16日
“悟道”公开课 | 120万+奖金,玩转中国超大模型!
PaperWeekly
0+阅读 · 2021年11月11日
不卷学术了,这次卷一波NLP实战落地经验
夕小瑶的卖萌屋
0+阅读 · 2021年8月3日
聊一聊“超大模型”
夕小瑶的卖萌屋
1+阅读 · 2021年7月6日
基于参数和结构优化的置信规则库推理方法研究
国家自然科学基金
3+阅读 · 2015年12月31日
分布式有监督学习的学习理论
国家自然科学基金
15+阅读 · 2015年12月31日
复杂数据下半参数可加模型的统计推断
国家自然科学基金
3+阅读 · 2013年12月31日
神经振荡与神经噪音对视觉信号在时间上的快速整合的影响
国家自然科学基金
0+阅读 · 2012年12月31日
大数据环境下面向科学研究第四范式的信息资源云研究
国家自然科学基金
1+阅读 · 2012年12月31日
大失准角传递对准模型及其并行集员估计算法研究
国家自然科学基金
0+阅读 · 2012年12月31日
模型参数辨识中的试验优化设计问题研究
国家自然科学基金
0+阅读 · 2012年12月31日
煤矿瓦斯突出灾害动态辨识与预测基础理论研究
国家自然科学基金
0+阅读 · 2012年12月31日
铁磁形状记忆合金力磁耦合的各向异性模型研究
国家自然科学基金
0+阅读 · 2009年12月31日
果蔬快速采摘的夹持碰撞模型与损伤机理研究
国家自然科学基金
0+阅读 · 2009年12月31日
Nadaraya-Watson Estimator for I.I.D. Paths of Diffusion Processes
Arxiv
0+阅读 · 2022年4月19日
BigDL 2.0: Seamless Scaling of AI Pipelines from Laptops to Distributed Cluster
Arxiv
0+阅读 · 2022年4月19日
Hierarchical Transformers Are More Efficient Language Models
Arxiv
2+阅读 · 2022年4月16日
Energy-Efficient Data Transfer Optimization via Decision-Tree Based Uncertainty Reduction
Arxiv
0+阅读 · 2022年4月15日
Characterizing the Efficiency vs. Accuracy Trade-off for Long-Context NLP Models
Arxiv
0+阅读 · 2022年4月15日
PL-VINS: Real-Time Monocular Visual-Inertial SLAM with Point and Line Features
Arxiv
1+阅读 · 2022年4月15日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Efficient Transformers: A Survey
Arxiv
23+阅读 · 2020年9月16日
Adversarial Multimodal Representation Learning for Click-Through Rate Prediction
Arxiv
23+阅读 · 2020年3月7日
A Primer in BERTology: What we know about how BERT works
Arxiv
34+阅读 · 2020年2月27日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
大模型
GPT-3
预训练模型
预训练
OpenAI
输出
相关VIP内容
吴恩达知乎问答:如何系统学习机器学习?
专知会员服务
20+阅读 · 2022年4月10日
超大规模智能模型产业发展报告(附下载)
专知会员服务
76+阅读 · 2021年9月25日
【ICML2021】逆约束强化学习
专知会员服务
32+阅读 · 2021年9月7日
1000层的GNN效果如何?ICML2021论述训练1000层的图神经网络大模型!
专知会员服务
36+阅读 · 2021年6月16日
【AAAI2021】通过知识到文本转换来测试知识增强的常识性问题回答
专知会员服务
28+阅读 · 2021年1月17日
【普林斯顿陈丹琦团队】使预训练语言模型成为更好的少样本学习器
专知会员服务
31+阅读 · 2021年1月4日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
【干货书】Pytorch自然语言处理,210页pdf
专知会员服务
164+阅读 · 2020年10月30日
【ICML2020】机器学习产品生产部署流程,54页ppt讲述实际ML生产部署
专知会员服务
52+阅读 · 2020年7月18日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
热门VIP内容
开通专知VIP会员 享更多权益服务
《支持 ML/AI 的下一代智能自主网络系统:性能提升与管理》177页
《飞行训练指导:夜间熟悉》152页
数据:联合作战的新弹药
《混合现实飞行模拟器中的夜视镜仿真:无缝集成真实世界》最新54页
相关资讯
“通用大模型”趋势下,AI未来当如何?
CSDN
3+阅读 · 2022年3月10日
黑箱优化:大规模语言模型的一种落地方式
PaperWeekly
0+阅读 · 2022年1月20日
大模型悟道2.0开放APP开发接口,百万奖金智能应用开发大赛进入高潮阶段
机器之心
0+阅读 · 2021年12月6日
“中国GPT-3”开放APP开发接口,百万奖金智能应用开发大赛同步启动
学术头条
0+阅读 · 2021年11月29日
“悟道”公开课第五讲 | 应用部署及思路分享
PaperWeekly
0+阅读 · 2021年11月22日
“悟道”公开课第四讲丨悟道开发案例:悟空策论——议论文写作平台
PaperWeekly
0+阅读 · 2021年11月20日
“悟道”公开课第三讲丨应用案例讲解:从对话到问答
PaperWeekly
0+阅读 · 2021年11月16日
“悟道”公开课 | 120万+奖金,玩转中国超大模型!
PaperWeekly
0+阅读 · 2021年11月11日
不卷学术了,这次卷一波NLP实战落地经验
夕小瑶的卖萌屋
0+阅读 · 2021年8月3日
聊一聊“超大模型”
夕小瑶的卖萌屋
1+阅读 · 2021年7月6日
相关基金
基于参数和结构优化的置信规则库推理方法研究
国家自然科学基金
3+阅读 · 2015年12月31日
分布式有监督学习的学习理论
国家自然科学基金
15+阅读 · 2015年12月31日
复杂数据下半参数可加模型的统计推断
国家自然科学基金
3+阅读 · 2013年12月31日
神经振荡与神经噪音对视觉信号在时间上的快速整合的影响
国家自然科学基金
0+阅读 · 2012年12月31日
大数据环境下面向科学研究第四范式的信息资源云研究
国家自然科学基金
1+阅读 · 2012年12月31日
大失准角传递对准模型及其并行集员估计算法研究
国家自然科学基金
0+阅读 · 2012年12月31日
模型参数辨识中的试验优化设计问题研究
国家自然科学基金
0+阅读 · 2012年12月31日
煤矿瓦斯突出灾害动态辨识与预测基础理论研究
国家自然科学基金
0+阅读 · 2012年12月31日
铁磁形状记忆合金力磁耦合的各向异性模型研究
国家自然科学基金
0+阅读 · 2009年12月31日
果蔬快速采摘的夹持碰撞模型与损伤机理研究
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Nadaraya-Watson Estimator for I.I.D. Paths of Diffusion Processes
Arxiv
0+阅读 · 2022年4月19日
BigDL 2.0: Seamless Scaling of AI Pipelines from Laptops to Distributed Cluster
Arxiv
0+阅读 · 2022年4月19日
Hierarchical Transformers Are More Efficient Language Models
Arxiv
2+阅读 · 2022年4月16日
Energy-Efficient Data Transfer Optimization via Decision-Tree Based Uncertainty Reduction
Arxiv
0+阅读 · 2022年4月15日
Characterizing the Efficiency vs. Accuracy Trade-off for Long-Context NLP Models
Arxiv
0+阅读 · 2022年4月15日
PL-VINS: Real-Time Monocular Visual-Inertial SLAM with Point and Line Features
Arxiv
1+阅读 · 2022年4月15日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Efficient Transformers: A Survey
Arxiv
23+阅读 · 2020年9月16日
Adversarial Multimodal Representation Learning for Click-Through Rate Prediction
Arxiv
23+阅读 · 2020年3月7日
A Primer in BERTology: What we know about how BERT works
Arxiv
34+阅读 · 2020年2月27日
大家都在搜
PRML
汽车智能化
大型语言模型
自主系统
ETHZ博士论文
洛克菲勒
RE-NET
palantir
无人艇
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top