近年来,预训练模型(例如ELMo、GPT、BERT和XLNet等)的快速发展大幅提升了诸多NLP任务的整体水平,同时也使得很多应用场景进入到实际落地阶段。预训练语言模型本身就是神经网络语言模型,它的特点包括:第一,可以使用大规模无标注纯文本语料进行训练;第二,可以用于各类下游NLP任务,不是针对某项定制的,但以后可用在下游NIP任务上,你不需要为下游任务专门设计一种神经网络,或者提供一种结构,直接在几种给定的固定框架中选择一种进行 fine-tune,就可以从而得到很好的结果。
基于符号和参数化知识库的推理:综述
专知会员服务
26+阅读 · 1月4日
《多模态持续预训练实用指南》,52页pdf
专知会员服务
21+阅读 · 2024年9月3日
融合知识图谱的预训练模型研究综述
专知会员服务
46+阅读 · 2024年3月31日
【博士论文】神经语言模型的参数效率,199页pdf
专知会员服务
32+阅读 · 2024年3月13日
微信扫码咨询专知VIP会员