BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
EMNLP 2022 | 预训练语言模型的时空效率优化
PaperWeekly
1+阅读 · 2022年11月20日
NeurIPS 2022 | 稀疏且鲁棒的预训练语言模型
PaperWeekly
0+阅读 · 2022年11月11日
GNN 又立功了! GNN + PLM = CIKM'22最佳论文
图与推荐
0+阅读 · 2022年11月3日
COLING 2022 | CogBERT:脑认知指导的预训练语言模型
PaperWeekly
0+阅读 · 2022年10月26日
一文详解文本语义相似度的研究脉络和最新进展
BERT为何无法彻底干掉BM25??
夕小瑶的卖萌屋
0+阅读 · 2022年6月28日
微信扫码咨询专知VIP会员