谁说发 paper 一定要追快打新?2021年,研究 word2vec 也能中顶会!

2021 年 10 月 10 日 夕小瑶的卖萌屋

文 | jxyxiangyu

前言

“小夕,小夕,你关注的任务sota又被刷新了!”

“什么?!”

还在跑实验的小夕默默流下了辛酸泪

不得不说nlp领域的发展真的太快了,炼丹师们不光要时刻关注前沿热点,还要快速做出实验,高强度堪比996:导师,臣妾真的做不到啊(っ╥╯﹏╰╥c)

正巧,小编我最近看到一篇研究词向量 word2vec 的论文,中了今年的EMNLP。What?!依稀记得头一次听说word2vec还在三年前。这么古老的东西还有人在研究吗?现在不都是XX-BERT、XX-transformer的时代了吗?

今天让我们一起来看看,到底是咋回事。

论文标题:
Analyzing the Surprising Variability in Word Embedding Stability Across Languages

论文链接:
https://arxiv.org/abs/2004.14876

词向量稳定性

在介绍论文之前,先让我们来了解下词向量的稳定性。词向量的稳定性指的是一个词在不同的向量空间中的最近邻的重叠程度,常用来衡量由数据集、算法和词的属性特征的变化引起的词向量的变化。

这时候一定有小伙伴要问了,都1202年了,还有研究静态词向量的必要吗?No,no,no,如果这么想,格局就小了,我们常用的BERT、GPT这些模型都是建立在大规模语料上预训练得到的,如果面对的是小语种,没有像汉语、英语这么丰富的语料库,是很难喂饱预训练语言模型的,另外,为了某些小语种专门花费大量的资源训练预训练模型,从工业的角度来看,成本也是非常高的。这时,自然而然就会想到利用上下文无关的静态词向量来解决这类问题。

稳定性的计算

文章研究的是在多个不同的语言中的词向量稳定性的变化,首先提出了稳定性的计算方式。给定两个向量空间集合 ,那么两个向量空间的组合可以表示成 ,其中, ,对于某个词 在向量空间 的稳定性可以用 在这两个空间中最近的10个邻居的重叠百分比来表示,而在 这两个集合中,任意两个向量空间的组合下的稳定性均值,就被定义为词 在这两个向量空间集合的稳定性。

举个栗子,下面的图展示的是词“rock”在三个向量空间下最近的10个邻居词,粗体表示向量空间重叠的词,可以看到 有6个邻居是重叠的, 分别有7个词重叠,那么词“rock”在这三个向量空间的稳定性就是这三个值的均值(0.667)。

实验

数据集

作者采用的是Wikipedia和Bible两个数据集,其中,Wikipedia包含40种语言,Bible包含97种语言,以及世界语言结构图谱(World Atlas of Language Structures,WALS),包含了近两千种语言属性知识。

数据集下采样

为减小不同语言数据量对词向量稳定性的影响,论文对原始的数据集做了下采样处理,具体方法是对数据集不重复地下采样(downsampling without replacement)。

为研究不同的下采样方法对稳定性的影响,用作者的话来说,希望通过下采样得到跨语言且有可比性的稳定性结果。为此,作者专门对比了可重复采样和不可重复采样两种下采样方法对稳定性的影响。

可以看到可重复采样的方法导致下采样数据集无论采样覆盖比例如何,稳定性基本趋于一致,没有区分度,而不可重复采样的方法得到的数据集有较为明显的稳定性区分,这也是作者选择不重复下采样方法的原因。

数据集上的稳定性

作者针对Wikipedia和Bible两个数据集重叠的26种语言,研究了不同语言不同词向量生成算法数据对词向量稳定性的影响,总共三种情况:

  1. 由五个下采样的数据集训练得到的GloVe词向量的稳定性
  2. 由五个下采样的数据集训练得到的word2ve词向量的稳定性
  3. 由一个下采样的数据集随机五次训练得到的word2ve词向量的稳定性

由于Bible数据集过小,因此,只对Bible数据集研究了情况3下稳定性的分布

可以看到在稳定性25%~75%之间,稳定性分布和变化较为平缓,低稳定性和高稳定性的词数量变化明显。

实验结果也表明在相同的训练数据下,不同的训练算法得到的词向量稳定性分布和变化趋于一致,相比而言,训练语料的不同对稳定性有较大的影响。因此,在对比不同语言下的词向量稳定性时,应该减小语料的内容对稳定性的影响。

为了研究同一数据集的不同上下文对研究不同语言间稳定性的影响程度,作者分别选择了圣经在德语和法语的多个不同译本,在一个下采样数据集上用五个不同的随机数种子训练生成五个word2vec词向量,并取均值作为该译本下的词向量稳定性。可以看到除个别译文外,不同译本之间的稳定性趋势基本一致,基本可以忽略相同语义的不同上下文对词向量稳定性的影响。

▲不同bible译本的稳定性分布(德语)
▲不同bible译本的稳定性分布(法语)

回归模型

前述的实验对比了多个语言下的稳定性分布与走势,下面作者用岭回预测特定语言下的所有词的平均稳定性的方式,研究语言属性本身对词向量稳定性的影响因素。

模型的输入是特定语言的语言学特征(属性),输出是稳定性的均值。在讲特征输入模型前,作者做了相应的数据预处理,包括过滤出现频次较低的特征和属性(WALS)以及属性较少的语言,特征分组等,这里就不详细说明了。

评价指标

作者用了两种方式来评估模型: 留一法交叉验证的绝对误差。选择拟合效果较好的模型,通过权重的大小来确定特征(或属性)对稳定性的贡献度程度。

实验结论

作者选择的模型达到了 的留一法交叉验证的绝对误差,足以证明模型拟合效果非常好,相应的权重也可以表示属性对稳定性的贡献程度。下面是岭回归模型拟合后得到的属性对稳定性的贡献度权重和对特征分组的平均权重。相应地,作者还对某些属性特征做了详细的研究分析,这里不再赘述。

小结

与常见的在某个任务上提模型、刷sota不同,这篇论文着眼于词向量在不同语言之间的差异的研究,本质上更像是数据分析。文章从数据采样方式入手,分别研究了数据集、训练算法对不同语言的稳定性的分布和走势的影响,并使用岭回归模型拟合了语言的属性特征对稳定性的贡献程度,分析不同属性特征对稳定性的影响。相比提出一个新的模型刷sota而言,可复现性和解释性更高,对词向量的应用有不小的贡献。

当然,这篇文章研究的是经典的静态词向量,和主流的transformer架构相比,确实显得有点“out”,但文章投了七次才中,不也证明了只要是金子都会发光吗?小编认为,谁说nlp一定要追快打新,只要是真正有益于nlp领域发展的研究工作,都值得发表,都值得中。(无卡党和少卡党狂喜bushi

▲狂喜

后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

登录查看更多
0

相关内容

[CVPR 2021] 序列到序列对比学习的文本识别
专知会员服务
28+阅读 · 2021年4月14日
【AAAI2021】预训练用户表示提升推荐
专知会员服务
43+阅读 · 2021年2月8日
专知会员服务
123+阅读 · 2020年9月8日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
别再无脑wwm了!在下游任务中不一定有效!
夕小瑶的卖萌屋
1+阅读 · 2022年4月7日
NLP技术中的Tokenization
PaperWeekly
1+阅读 · 2021年12月16日
文本表达进击:从BERT-flow到BERT-whitening、SimCSE
PaperWeekly
5+阅读 · 2021年11月10日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
论文浅尝 | 基于知识图谱中图卷积神经网络的推荐系统
开放知识图谱
67+阅读 · 2019年8月27日
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
1+阅读 · 2022年4月15日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关VIP内容
[CVPR 2021] 序列到序列对比学习的文本识别
专知会员服务
28+阅读 · 2021年4月14日
【AAAI2021】预训练用户表示提升推荐
专知会员服务
43+阅读 · 2021年2月8日
专知会员服务
123+阅读 · 2020年9月8日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
相关资讯
别再无脑wwm了!在下游任务中不一定有效!
夕小瑶的卖萌屋
1+阅读 · 2022年4月7日
NLP技术中的Tokenization
PaperWeekly
1+阅读 · 2021年12月16日
文本表达进击:从BERT-flow到BERT-whitening、SimCSE
PaperWeekly
5+阅读 · 2021年11月10日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
论文浅尝 | 基于知识图谱中图卷积神经网络的推荐系统
开放知识图谱
67+阅读 · 2019年8月27日
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
1+阅读 · 2022年4月15日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
27+阅读 · 2017年12月6日
Top
微信扫码咨询专知VIP会员