成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
29
大型语言模型
·
2022 年 9 月 17 日
《大型语言模型》最新报告,52页ppt,DeepMind Angeliki Lazaridou
专知会员服务
专知,提供专业可信的知识分发服务,让认知协作更快更好!
大型语言模型(Large language model,简称LLM)代表了人工智能(AI)的重大进步,特别是朝着类人通用人工智能的目标迈进了一大步。
成为VIP会员查看完整内容
Large Language Models
点赞并收藏
29
暂时没有读者
66
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
不可错过! Virginia Tech《人工智能分子建模》课程,讲述深度分子表示合成等
专知会员服务
15+阅读 · 2022年4月18日
【多智能体学习】DeepMind教程,231页PPT
专知会员服务
124+阅读 · 2022年3月25日
重磅!《人工智能全景报告2021版》出炉,188页ppt,State of AI Report 2021
专知会员服务
142+阅读 · 2021年10月13日
【DeepMind】多模态预训练模型概述,37页ppt
专知会员服务
93+阅读 · 2021年7月2日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【NeurIPS2020】DeepMind最新《神经科学人工智能》报告,126页ppt
专知会员服务
68+阅读 · 2020年12月10日
最新《元学习》研究进展报告与论文,DeepMind Jane Wang研究科学家为你讲解,附下载
专知会员服务
46+阅读 · 2020年12月7日
Google BERT作者Jacob斯坦福亲授《上下文词向量与预训练语言模型: BERT到T5》43页ppt
专知会员服务
89+阅读 · 2020年4月6日
预训练语言模型BERT,Jacob Devlin斯坦福演讲PPT:BERT介绍与答疑,35页ppt
专知会员服务
111+阅读 · 2020年1月7日
不可错过!普林斯顿陈丹琦最新《大语言模型理解》2022课程!全面讲述BERT、GPT、T5等大模型,附Slides
专知
7+阅读 · 2022年10月19日
《元强化学习》最新,70页ppt
专知
2+阅读 · 2022年9月16日
《从机器学习到自主智能》,图灵奖得主Yann LeCun最新报告,附192页ppt与视频
专知
3+阅读 · 2022年8月2日
清华陈丹琦:如何让「大模型」变小
THU数据派
11+阅读 · 2022年7月28日
LeCun60页长文:自主智能即将觉醒!喊话Marcus:评论敞开,不服来战
新智元
0+阅读 · 2022年6月28日
不可错过! Virginia Tech《人工智能分子建模》课程,讲述深度分子表示合成等
专知
0+阅读 · 2022年4月18日
图灵奖得主Yann LeCun:最新《自主人工智能之路》报告,附视频与70页ppt
专知
3+阅读 · 2022年2月26日
图灵奖获得者Yann LeCun:未来几十年AI研究的最大挑战是「预测世界模型」
机器之心
2+阅读 · 2022年2月26日
【干货】NLP中的迁移学习教程来啦!(238页PPT下载)
新智元
35+阅读 · 2019年6月3日
剑桥大学:156页PPT全景展示AI过去的12个月(附下载)
专知
18+阅读 · 2018年7月3日
单链saRNA加工和抑制效率的研究
国家自然科学基金
0+阅读 · 2014年12月31日
与人类脂代谢紊乱高度相似的基因工程仓鼠模型的构建
国家自然科学基金
0+阅读 · 2014年12月31日
拟南芥Argonaute1在细胞核内调控基因表达的机制
国家自然科学基金
0+阅读 · 2013年12月31日
蛋白乙酰化修饰对天蓝色链霉菌发育分化的调控机制研究
国家自然科学基金
0+阅读 · 2013年12月31日
Intraflagellar Transport运输纤毛蛋白的分子机理
国家自然科学基金
0+阅读 · 2012年12月31日
抑制粘附,亦或诱导生长?- - 人工晶状体材料表面功能化修饰对LECs行为的调控研究
国家自然科学基金
0+阅读 · 2012年12月31日
长双歧杆菌新的LuxS/AI-2依赖的QS系统及其调控机制的研究
国家自然科学基金
0+阅读 · 2012年12月31日
具有调控VSMC增殖信号通路的新型二氢黄酮类小分子的构建及其调控机制研究
国家自然科学基金
0+阅读 · 2011年12月31日
结构化机器学习若干关键问题研究
国家自然科学基金
1+阅读 · 2009年12月31日
Lsi1基因对水稻抗UV-B辐射的调节机制研究
国家自然科学基金
0+阅读 · 2009年12月31日
Practical Program Repair in the Era of Large Pre-trained Language Models
Arxiv
0+阅读 · 2022年10月25日
IELM: An Open Information Extraction Benchmark for Pre-Trained Language Models
Arxiv
0+阅读 · 2022年10月25日
Exploring Mode Connectivity for Pre-trained Language Models
Arxiv
0+阅读 · 2022年10月25日
PATS: Sensitivity-aware Noisy Learning for Pretrained Language Models
Arxiv
0+阅读 · 2022年10月25日
Rainbow cycles for families of matchings
Arxiv
0+阅读 · 2022年10月24日
TransLIST: A Transformer-Based Linguistically Informed Sanskrit Tokenizer
Arxiv
0+阅读 · 2022年10月21日
Recent Advances in Natural Language Processing via Large Pre-Trained Language Models: A Survey
Arxiv
30+阅读 · 2021年11月1日
AMMUS : A Survey of Transformer-based Pretrained Models in Natural Language Processing
Arxiv
23+阅读 · 2021年8月12日
Pre-trained Models for Natural Language Processing: A Survey
Arxiv
113+阅读 · 2020年3月18日
UniViLM: A Unified Video and Language Pre-Training Model for Multimodal Understanding and Generation
Arxiv
19+阅读 · 2020年2月15日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
大型语言模型
相关VIP内容
不可错过! Virginia Tech《人工智能分子建模》课程,讲述深度分子表示合成等
专知会员服务
15+阅读 · 2022年4月18日
【多智能体学习】DeepMind教程,231页PPT
专知会员服务
124+阅读 · 2022年3月25日
重磅!《人工智能全景报告2021版》出炉,188页ppt,State of AI Report 2021
专知会员服务
142+阅读 · 2021年10月13日
【DeepMind】多模态预训练模型概述,37页ppt
专知会员服务
93+阅读 · 2021年7月2日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【NeurIPS2020】DeepMind最新《神经科学人工智能》报告,126页ppt
专知会员服务
68+阅读 · 2020年12月10日
最新《元学习》研究进展报告与论文,DeepMind Jane Wang研究科学家为你讲解,附下载
专知会员服务
46+阅读 · 2020年12月7日
Google BERT作者Jacob斯坦福亲授《上下文词向量与预训练语言模型: BERT到T5》43页ppt
专知会员服务
89+阅读 · 2020年4月6日
预训练语言模型BERT,Jacob Devlin斯坦福演讲PPT:BERT介绍与答疑,35页ppt
专知会员服务
111+阅读 · 2020年1月7日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
不可错过!普林斯顿陈丹琦最新《大语言模型理解》2022课程!全面讲述BERT、GPT、T5等大模型,附Slides
专知
7+阅读 · 2022年10月19日
《元强化学习》最新,70页ppt
专知
2+阅读 · 2022年9月16日
《从机器学习到自主智能》,图灵奖得主Yann LeCun最新报告,附192页ppt与视频
专知
3+阅读 · 2022年8月2日
清华陈丹琦:如何让「大模型」变小
THU数据派
11+阅读 · 2022年7月28日
LeCun60页长文:自主智能即将觉醒!喊话Marcus:评论敞开,不服来战
新智元
0+阅读 · 2022年6月28日
不可错过! Virginia Tech《人工智能分子建模》课程,讲述深度分子表示合成等
专知
0+阅读 · 2022年4月18日
图灵奖得主Yann LeCun:最新《自主人工智能之路》报告,附视频与70页ppt
专知
3+阅读 · 2022年2月26日
图灵奖获得者Yann LeCun:未来几十年AI研究的最大挑战是「预测世界模型」
机器之心
2+阅读 · 2022年2月26日
【干货】NLP中的迁移学习教程来啦!(238页PPT下载)
新智元
35+阅读 · 2019年6月3日
剑桥大学:156页PPT全景展示AI过去的12个月(附下载)
专知
18+阅读 · 2018年7月3日
相关基金
单链saRNA加工和抑制效率的研究
国家自然科学基金
0+阅读 · 2014年12月31日
与人类脂代谢紊乱高度相似的基因工程仓鼠模型的构建
国家自然科学基金
0+阅读 · 2014年12月31日
拟南芥Argonaute1在细胞核内调控基因表达的机制
国家自然科学基金
0+阅读 · 2013年12月31日
蛋白乙酰化修饰对天蓝色链霉菌发育分化的调控机制研究
国家自然科学基金
0+阅读 · 2013年12月31日
Intraflagellar Transport运输纤毛蛋白的分子机理
国家自然科学基金
0+阅读 · 2012年12月31日
抑制粘附,亦或诱导生长?- - 人工晶状体材料表面功能化修饰对LECs行为的调控研究
国家自然科学基金
0+阅读 · 2012年12月31日
长双歧杆菌新的LuxS/AI-2依赖的QS系统及其调控机制的研究
国家自然科学基金
0+阅读 · 2012年12月31日
具有调控VSMC增殖信号通路的新型二氢黄酮类小分子的构建及其调控机制研究
国家自然科学基金
0+阅读 · 2011年12月31日
结构化机器学习若干关键问题研究
国家自然科学基金
1+阅读 · 2009年12月31日
Lsi1基因对水稻抗UV-B辐射的调节机制研究
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Practical Program Repair in the Era of Large Pre-trained Language Models
Arxiv
0+阅读 · 2022年10月25日
IELM: An Open Information Extraction Benchmark for Pre-Trained Language Models
Arxiv
0+阅读 · 2022年10月25日
Exploring Mode Connectivity for Pre-trained Language Models
Arxiv
0+阅读 · 2022年10月25日
PATS: Sensitivity-aware Noisy Learning for Pretrained Language Models
Arxiv
0+阅读 · 2022年10月25日
Rainbow cycles for families of matchings
Arxiv
0+阅读 · 2022年10月24日
TransLIST: A Transformer-Based Linguistically Informed Sanskrit Tokenizer
Arxiv
0+阅读 · 2022年10月21日
Recent Advances in Natural Language Processing via Large Pre-Trained Language Models: A Survey
Arxiv
30+阅读 · 2021年11月1日
AMMUS : A Survey of Transformer-based Pretrained Models in Natural Language Processing
Arxiv
23+阅读 · 2021年8月12日
Pre-trained Models for Natural Language Processing: A Survey
Arxiv
113+阅读 · 2020年3月18日
UniViLM: A Unified Video and Language Pre-Training Model for Multimodal Understanding and Generation
Arxiv
19+阅读 · 2020年2月15日
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top