更多详细内容,可参见 PLM 论文整理 Github 项目地址: https://github.com/thunlp/PLMpapers
更多详情,可参见 NEZHA 论文地址: https://arxiv.org/pdf/1909.00204.pdf 关于知识蒸馏模型 TinyBERT 详细解读,可参考往期内容: https://mp.weixin.qq.com/s/f2vxlhaGW1wnu8UYrvh-tA Github 开源地址(包含 NEZHA 与 TinyBERT ): https://github.com/huawei-noah/Pretrained-Language-Model