成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
0
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
The aftermath of compounds: Investigating Compounds and their Semantic Representations
Arxiv
0+阅读 · 10月31日
Multilingual BERT language model for medical tasks: Evaluation on domain-specific adaptation and cross-linguality
Arxiv
0+阅读 · 10月31日
Typoglycemia under the Hood: Investigating Language Models' Understanding of Scrambled Words
Arxiv
0+阅读 · 10月24日
NeoDictaBERT: Pushing the Frontier of BERT models for Hebrew
Arxiv
0+阅读 · 10月23日
Sentiment Analysis of Social Media Data for Predicting Consumer Behavior Trends Using Machine Learning
Arxiv
0+阅读 · 10月22日
Lightweight Baselines for Medical Abstract Classification: DistilBERT with Cross-Entropy as a Strong Default
Arxiv
0+阅读 · 10月21日
Multilingual Clinical NER for Diseases and Medications Recognition in Cardiology Texts using BERT Embeddings
Arxiv
0+阅读 · 10月20日
Lingua Custodi's participation at the WMT 2025 Terminology shared task
Arxiv
0+阅读 · 10月20日
MaxPoolBERT: Enhancing BERT Classification via Layer- and Token-Wise Aggregation
Arxiv
0+阅读 · 10月14日
From Reasoning LLMs to BERT: A Two-Stage Distillation Framework for Search Relevance
Arxiv
0+阅读 · 10月13日
Domain-Adapted Pre-trained Language Models for Implicit Information Extraction in Crash Narratives
Arxiv
0+阅读 · 10月10日
Two-Stage Voting for Robust and Efficient Suicide Risk Detection on Social Media
Arxiv
0+阅读 · 10月9日
NLP Methods for Detecting Novel LLM Jailbreaks and Keyword Analysis with BERT
Arxiv
0+阅读 · 10月2日
Enhanced Arabic-language cyberbullying detection: deep embedding and transformer (BERT) approaches
Arxiv
0+阅读 · 10月2日
Optimizing Retrieval Augmented Generation for Object Constraint Language
Arxiv
0+阅读 · 5月19日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top