成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
Breaking BERT: Gradient Attack on Twitter Sentiment Analysis for Targeted Misclassification
Arxiv
0+阅读 · 4月2日
Synthetic News Generation for Fake News Classification
Arxiv
0+阅读 · 3月31日
Advancing Vulnerability Classification with BERT: A Multi-Objective Learning Model
Arxiv
0+阅读 · 3月26日
ModernBERT is More Efficient than Conventional BERT for Chest CT Findings Classification in Japanese Radiology Reports
Arxiv
0+阅读 · 3月7日
A Grey-box Text Attack Framework using Explainable AI
Arxiv
0+阅读 · 3月11日
Construction Identification and Disambiguation Using BERT: A Case Study of NPN
Arxiv
0+阅读 · 3月24日
FMT:A Multimodal Pneumonia Detection Model Based on Stacking MOE Framework
Arxiv
0+阅读 · 3月7日
An Empirical Study on LLM-based Classification of Requirements-related Provisions in Food-safety Regulations
Arxiv
0+阅读 · 1月24日
Lowering the Barrier of Machine Learning: Achieving Zero Manual Labeling in Review Classification Using LLMs
Arxiv
0+阅读 · 2月5日
PGB: One-Shot Pruning for BERT via Weight Grouping and Permutation
Arxiv
0+阅读 · 2月6日
Aligning Brain Activity with Advanced Transformer Models: Exploring the Role of Punctuation in Semantic Processing
Arxiv
0+阅读 · 2月2日
From Occupations to Tasks: A New Perspective on Automatability Prediction Using BERT
Arxiv
0+阅读 · 2月13日
Making Language Models Robust Against Negation
Arxiv
0+阅读 · 2月11日
The geometry of BERT
Arxiv
0+阅读 · 2月17日
Unlocking the Potential of Multiple BERT Models for Bangla Question Answering in NCTB Textbooks
Arxiv
0+阅读 · 2024年12月24日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top