成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
嵌入向量能否理解数字?BERT竟不如ELMo?
机器之心
0+阅读 · 2019年10月6日
Papers With Code:一文看尽深度学习这半年
极市平台
61+阅读 · 2018年12月3日
模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结
AINLP
2+阅读 · 2020年5月28日
从Transformer到BERT模型
AINLP
4+阅读 · 2020年3月23日
视频 | 进化策略让AI开挂,玩游戏不断给自己续命
AI科技评论
1+阅读 · 2018年6月3日
一文详解文本语义相似度的研究脉络和最新进展
PaperWeekly
1+阅读 · 2022年8月15日
金融市场中的NLP——情感分析
深度学习自然语言处理
0+阅读 · 2020年10月21日
开发 | 谷歌更强NLP模型XLNet开源:20项任务全面碾压BERT!
AI科技评论
6+阅读 · 2019年6月20日
芝麻街跨界NLP,没有一个ERNIE是无辜的
AINLP
0+阅读 · 2020年4月25日
Sentence-BERT: 一种能快速计算句子相似度的孪生网络
AINLP
5+阅读 · 2020年5月27日
横扫各项NLP任务的BERT模型有了PyTorch实现!提供转换脚本
新智元
2+阅读 · 2018年11月12日
重回榜首的BERT改进版开源了,千块V100、160GB纯文本的大模型
机器之心
1+阅读 · 2019年7月30日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
OpenAI被讽ClosedAI?语言模型并没有想象中的强大
机器之心
0+阅读 · 2019年2月20日
任务型对话系统预训练最新研究进展
PaperWeekly
2+阅读 · 2022年1月14日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top