NLP从愚笨变得聪明
什么让BERT如此惊艳?
BERT是一种上下文模型,这意味着基于句子中所用单词的上下文生成单词嵌入,因此一个单词可以有多个嵌入。比如说,BERT会在下面两句话中为Mercury生成不同的嵌入:“Mercury(水星)在夜空中可以看见”和“Mercury(墨丘利)常常与希腊众神的奔跑飞快的信使Hermes混淆起来。”
BERT支持迁移学习(transfer learning)。这被称为“NLP的ImageNet时刻。”谷歌已经在维基百科上预先训练了BERT,这种预先训练的模型现在可以用于其他更具体的数据集,比如贵公司的客户支持机器人。请记住,这种预先训练开销庞大,现在你可以跳过这个环节。因此,你的出发点是智能模型(用一般的人类语音来训练),而不仅仅是需要训练的算法。
BERT可以针对一小组特定领域数据低成本、快速度地加以微调,可以获得比从头开始用同样这些特定领域数据集来训练更准确的结果。
BERT来到你附近的应用场景
建议回复电子邮件——BERT
建议句子中的下一个单词——BERT
数据依然是王者
摩尔定律依然适用
结束语