文字整理:智源社区 何灏宇日前,在第二届北京智源大会语音与自然语言处理专题论坛上,国际自然语言处理著名学者、斯坦福人工智能实验室负责人Christopher Manning做了名为《Linguistic structure discovery with deep contextual word representations》的主题演讲。在演讲中,Christopher Manning 根据对语言学结构的学习程度,将语言模型分为三个发展阶段:
早期基于概率统计、无法学习语言结构的黑暗时代(Language Models in The Dark Ages);
之后则是启蒙时代的神经语言模型(Enlightenment era neural Language Models),特点是具备一定学习语言结构的能力;
2018年始,基于Transformer结构的大参数量预训练模型(Big Language Models)大行其道。