成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
Unlocking the Potential of Multiple BERT Models for Bangla Question Answering in NCTB Textbooks
Arxiv
0+阅读 · 2024年12月24日
Comparing Few-Shot Prompting of GPT-4 LLMs with BERT Classifiers for Open-Response Assessment in Tutor Equity Training
Arxiv
0+阅读 · 1月11日
Indonesian-English Code-Switching Speech Synthesizer Utilizing Multilingual STEN-TTS and Bert LID
Arxiv
0+阅读 · 2024年12月26日
GoBERT: Gene Ontology Graph Informed BERT for Universal Gene Function Prediction
Arxiv
0+阅读 · 1月3日
Multi-label Cross-lingual automatic music genre classification from lyrics with Sentence BERT
Arxiv
0+阅读 · 1月7日
Aligning Brain Activity with Advanced Transformer Models: Exploring the Role of Punctuation in Semantic Processing
Arxiv
0+阅读 · 1月16日
Exploring Narrative Clustering in Large Language Models: A Layerwise Analysis of BERT
Arxiv
0+阅读 · 1月14日
On Importance of Layer Pruning for Smaller BERT Models and Low Resource Languages
Arxiv
0+阅读 · 1月1日
AudioBERT: Audio Knowledge Augmented Language Model
Arxiv
0+阅读 · 1月16日
Information Extraction from Clinical Notes: Are We Ready to Switch to Large Language Models?
Arxiv
0+阅读 · 1月7日
BARTPredict: Empowering IoT Security with LLM-Driven Cyber Threat Prediction
Arxiv
0+阅读 · 1月3日
Injecting Bias into Text Classification Models using Backdoor Attacks
Arxiv
0+阅读 · 2024年12月25日
Enhancing Plagiarism Detection in Marathi with a Weighted Ensemble of TF-IDF and BERT Embeddings for Low-Resource Language Processing
Arxiv
0+阅读 · 1月9日
GPT or BERT: why not both?
Arxiv
0+阅读 · 2024年12月29日
Disambiguation of Chinese Polyphones in an End-to-End Framework with Semantic Features Extracted by Pre-trained BERT
Arxiv
0+阅读 · 1月2日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top