作者:追一科技 AI Lab 研究员 Tony
大家都知道,BERT等语言模型在自然语言处理中得到了广泛的应用。但有时也会出现一个疑问,这些语言模型是否真正地理解了语言呢?专家学者对此也会有不同的见解。本文作者则从语言的本质、语言符号与意义的关系以及语言模型究竟从语言中学到了什么等几个方面阐述了对该主题的看法。
unlockable = un+lockable / unlock + able
欢迎新老师生前来就餐 = 欢迎+新老师+生前+来+就餐 / 欢迎+新老+师生+前来+就餐
新垣结衣是我老婆 = 我是新垣结衣的老公
理解语言内的符号及其组合规则;
理解语言的意义,即理解涵义的形式及其指代,以及两者如何依情境产生变化。而现有语⾔模型的训练基于⽂本语料。它⻅到的数据是服从语⾔规则、在⼀定情境 (某一时间地点,某种心理状态,基于某些知识,做了某些推理等) 中的⼈输出的⼀堆语⾔符号。假如把人想表达的意义和情境当做输入,文本当做输出,那么语言就是一个将意义和情境映射到服从语言规则的文本的函数。而想要语言模型只依靠函数的可能输出,就能推断出函数的形式,即输入和输出的对应关系,是不可能的。所以按照本⽂的定义,语⾔模型是没办法完整理解语⾔的。
[1] https://thegradient.pub/nlp-imagenet/
[2] http://faculty.washington.edu/ebender/papers/GeneralPurposeNLU.pdf