今日上午, EMNLP 2020各项大奖出炉!
其中最佳论文奖由加州大学伯克利分校的David Gaddy、Dan Klein两人获得,爱丁堡大学华人博士生 Yanpeng Zhao 获得了最佳论文荣誉提名奖(共4篇)。
另外,本届大会的最佳 Demo 奖由大家所熟知的 Hugging Face 团队摘得。
复旦大学计算机科学学院教授黄萱菁将出任下一届大会的程序主席。
除此之外,比较遗憾的是,今年的最佳短论文暂未颁发。
作为国际语言学会(ACL)下属的 SIGDAT 小组主办的自然语言处理领域的顶级国际会议。EMNLP每年举办一次,去年则与 IJCNLP 联合在香港举办,今年由于疫情转为线上举办。
EMNLP 2020 共收到3677篇投稿,有效投稿为3359 篇,总接收论文752 篇,包括602篇长论文、150篇短论文。
从接收率看,EMNLP 2020的论文接受率创下近五年新低,为22.4%,其中长论文接收率为 24.6%,短论文接收率为16.6%。
更多关于EMNLP 2020的论文相关信息请移步“中国投稿量第二,接收率却仅有13.2% ? 十张图带你读懂EMNLP 2020开幕式!”一文。
荣获EMNLP 2020最佳论文奖的是来自加州大学伯克利分校的一篇论文:
《Digital Voicing of Silent Speech》。
-
论文链接:https://www.aclweb.org/anthology/2020.emnlp-main.445.pdf
-
开源链接:https://github.com/dgaddy/silent_speech
-
作者:David Gaddy、Dan Klein(加州大学伯克利分校)
在本文中,我们研究了对无声语音进行数字化语音处理以使其发声的任务:
我们基于捕获到的肌肉冲动的肌电图(EMG)传感器测量结果,将无声口语单词转换为可听语音。
下图展示了放置在脸上的肌电图(EMG)电极可以检测语音发音器的肌肉运动:
尽管先前的工作集中在训练发声期间从EMG收集到的语音合成模型,但我们是第一个利用在无声发音期间从EMG收集到的语音进行模型训练。
具体而言,我们介绍了一种通过将音频目标从发声信号转换为静默信号来对静默EMG进行训练的方法:
与仅使用发声数据进行训练的baseline方法相比,我们的方法极大地提高了从静默EMG生成音频的清晰度,在某种数据条件下将转录词误差率从64%降低到4%,在另一种数据条件下将转录词误差率从88%降低到68%。
最后,为了促进此任务的进一步发展,我们共享了无声和发声面部EMG测量的新数据集。
数
据集下载地址:
https://zenodo.org/record/4064409#.X7ZDfcIzZhE
本次EMNLP 2020共有四篇论文获得最佳论文荣誉提名奖,其中包括华人作者爱丁堡大学的Yanpeng Zhao一篇论文《Visually Grounded Compound PCFGs》。
以下是EMNLP 2020四篇最佳论文荣誉提名奖基本情况。
《If beam search is the answer, what was the question?》
《GLUCOSE: GeneraLized and COntextualized Story Explanations》
《Spot The Bot: A Robust and Efficient Framework for the Evaluation of Conversational Dialogue Systems》
-
论文链接:https://arxiv.org/pdf/2010.02140v1.pdf
-
作者:Jan Deriu、Don Tuggener、Pius von Daniken、Mark Cieliebak、Alvaro Rodrigo、Jon Ander Campos、Aitor Soroa、Aitor Soroa、Thiziri Belkacem
最佳论文荣誉提名奖论文四:《Visually Grounded Compound PCFGs》
论文链接:https://arxiv.org/pdf/2009.12404.pdf
项目地址:https://github.com/zhaoyanpeng/vpcfg
作者:Yanpeng Zhao、Ivan Titov(爱丁堡大学)
今年荣获EMNLP 2020最佳Demo论文奖项的是来自Hugging Face团队的一篇论文:《Transformers: State-of-the-art Natural Language Processing》。
-
论文链接:https://arxiv.org/pdf/1910.03771.pdf
-
Transformers 库地址:https://github.com/huggingface/transformers
-
模型体系架构和模型预训练的发展推动了自然语言处理的最新进展。
Transformer体系架构有助于构建更高容量的模型,而预训练使得在大量任务中高效利用大模型容量成为可能。
Hugging Face 团队创建了Transformers开源代码库,旨在将这些NLP进步开放给更广泛的机器学习社区。
该库包含了在统一API下经过精心设计的SOTA模型的Transformer架构。
该库汇集了由社区制作并可供社区使用的精选预训练模型的集合。Transformer设计可由研究人员不断扩展,对从业人员使用而言简单易行,并且可以快速而强大的进行工业部署。
目前,该库的 star 量高达 36.9K,包含数千个预训练模型,如知名度非常高的ALBERT、BERT、GPT、GPT-2、Transformer-XL、RoBERTa、ELECTRA、XLNet等模型。
在会议上,EMNLP组委会还宣布了下一届会议将会在明年的11月7号到11月11日于多米尼加共和国举行。
此外恭喜复旦大学黄萱菁老师,她将成为下一届的程序主席!本次EMNLP 2020中她也有6篇论文入选。
黄萱菁,复旦大学计算机科学学院教授,2008年至2009年,UMass Amherst CIIR的访问学者。她的研究兴趣包括自然语言处理、信息检索、人工智能、深度学习等。她在顶级会议上发表了数十篇论文,包括SIGIR、ACL、ICML、IJCAI、AAAI、CIKM、ISWC、EMNLP、WSDM和COLING。她曾担任NLPCC 2017、CCL 2016、SMP 2015和SMP 2014的PC联合主席......
谷歌学术主页:https://scholar.google.com/citations?user=RGsMgZA4H78C&hl=en
以下是黄萱菁团队本次EMNLP 2020主会录取论文:
1、《Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based Sentiment Analysis》.
Xiaoyu Xing, Zhijing Jin, Di Jin, Bingning Wang, Qi Zhang and Xuanjing Huang.
2、《A Knowledge-Aware Sequence-to-Tree Network for Math Word Problem Solving》.
Qinzhuo Wu, Qi Zhang, Jinlan Fu and Xuanjing Huang.
3、《Uncertainty-Aware Label Refinement for Sequence Labeling》.
Tao Gui, Jiacheng Ye, Qi Zhang, Zhengyan Li, Zichu Fei, Yeyun Gong and Xuanjing Huang.
4、《Leveraging Declarative Knowledge in Text and First-Order Logic for Fine-Grained Propaganda Detection》
. Ruize Wang, Duyu Tang, Nan Duan, Wanjun Zhong, Zhongyu Wei, Xuanjing Huang, Daxin Jiang and Ming Zhou.
5、《PathQG: Neural Question Generation from Facts》
. Siyuan Wang, Zhongyu Wei, Zhihao Fan, Zengfeng Huang, Weijian Sun, Qi ZHANG and Xuanjing Huang.
6、《RethinkCWS: Is Chinese Word Segmentation a Solved Task?》
. Jinlan Fu, Pengfei Liu, Qi Zhang and Xuanjing Huang.
https://2020.emnlp.org/blog/2020-11-19-best-papers
https://2020.emnlp
.org/blog/2020-09-18-decisions/
点击阅读原文,直达EMNLP小组!