成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
AI都会和人类谈判了?Meta AI最新研究登上Science,LeCun称里程碑式成果
量子位
1+阅读 · 2022年11月23日
EMNLP 2022 | 预训练语言模型的时空效率优化
PaperWeekly
1+阅读 · 2022年11月20日
登顶全球最权威AI性能基准评测,百度飞桨给分布式训练创造了标杆
机器之心
0+阅读 · 2022年11月18日
NeurIPS 2022 | 稀疏且鲁棒的预训练语言模型
PaperWeekly
0+阅读 · 2022年11月11日
MLPerf排名榜刷新:相同GPU配置训练BERT,飞桨用分布式技术拿下世界第一
量子位
0+阅读 · 2022年11月11日
GNN 又立功了! GNN + PLM = CIKM'22最佳论文
图与推荐
0+阅读 · 2022年11月3日
CIKM 2022最佳论文:融合图注意力机制与预训练语言模型的常识库补全
PaperWeekly
0+阅读 · 2022年11月3日
不可错过!普林斯顿陈丹琦最新《大语言模型理解》2022课程!全面讲述BERT、GPT、T5等大模型,附Slides
新智元
5+阅读 · 2022年10月29日
一行代码12倍加速Bert推理,OpenAI编程语言加持的引擎火了
机器之心
0+阅读 · 2022年10月27日
COLING 2022 | CogBERT:脑认知指导的预训练语言模型
PaperWeekly
0+阅读 · 2022年10月26日
不可错过!普林斯顿陈丹琦最新《大语言模型理解》2022课程!全面讲述BERT、GPT、T5等大模型,附Slides
专知
7+阅读 · 2022年10月19日
ELMo、GPT、BERT、X-Transformer…你都掌握了吗?一文总结文本分类必备经典模型(三)
机器之心
0+阅读 · 2022年10月2日
BERT用的LayerNorm可能不是你认为的那个Layer Norm?
PaperWeekly
0+阅读 · 2022年9月5日
一文详解文本语义相似度的研究脉络和最新进展
PaperWeekly
1+阅读 · 2022年8月15日
BERT为何无法彻底干掉BM25??
夕小瑶的卖萌屋
0+阅读 · 2022年6月28日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top