主题: Transferring NLP models across languages and domains
摘要: 在过去一年多的时间里,以预训练模型形式进行的迁移学习已经成为NLP领域的主流,许多任务的基准都因而得到极大地提升。在当前的自然语言处理领域中,也同样普遍存在着不同类型的迁移学习。这大致可以从三个维度进行分类:a)源设置和目标设置是否处理相同的任务;b)源域和目标域是否有相同的属性;c)task学习顺序是否相同。报告者从跨语言和跨领域两方面来讲述NLP模型迁移。
下载链接: https://syntaxfest.github.io/syntaxfest19/slides/invited_talk_syntaxfest_plank.pdf