成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
Neural Architecture Search for Sentence Classification with BERT
Arxiv
0+阅读 · 3月27日
mALBERT: Is a Compact Multilingual BERT Model Still Worth It?
Arxiv
0+阅读 · 3月27日
Training BERT Models to Carry Over a Coding System Developed on One Corpus to Another
Arxiv
0+阅读 · 3月26日
A Study on How Attention Scores in the BERT Model are Aware of Lexical Categories in Syntactic and Semantic Tasks on the GLUE Benchmark
Arxiv
0+阅读 · 3月25日
Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation
Arxiv
0+阅读 · 3月21日
How Gender Interacts with Political Values: A Case Study on Czech BERT Models
Arxiv
0+阅读 · 3月20日
Weight-Inherited Distillation for Task-Agnostic BERT Compression
Arxiv
0+阅读 · 3月20日
Investigating Text Shortening Strategy in BERT: Truncation vs Summarization
Arxiv
0+阅读 · 3月19日
Fisher Mask Nodes for Language Model Merging
Arxiv
0+阅读 · 3月18日
Automatic Report Generation for Histopathology images using pre-trained Vision Transformers and BERT
Arxiv
0+阅读 · 3月15日
Fisher Mask Nodes for Language Model Merging
Arxiv
0+阅读 · 3月14日
Mixed-Distil-BERT: Code-mixed Language Modeling for Bangla, English, and Hindi
Arxiv
0+阅读 · 3月14日
Research on the Application of Deep Learning-based BERT Model in Sentiment Analysis
Arxiv
0+阅读 · 3月13日
MoralBERT: Detecting Moral Values in Social Discourse
Arxiv
0+阅读 · 3月12日
Interest-Aware Joint Caching, Computing, and Communication Optimization for Mobile VR Delivery in MEC Networks
Arxiv
0+阅读 · 3月9日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top