交大ACM班毕业生在Google的新工作:帮你自动写Excel的表格公式,准确率57.4%!

2021 年 11 月 2 日 新智元



  新智元报道  

来源:Google AI

编辑:LRS

【新智元导读】表格版的公式生成器来了!交大ACM班毕业生,伯克利博士陈昕昀在Google带来了她在ICML 2021的新工作,能够自动帮你补全公式,准确率在测试阶段已达57.4%。目前Google Sheets已上线该功能,快去试用吧!

Excel可以说是最熟悉的陌生人了,每天都在使用,但高级用法却说不上来几个。
 
写公式就是Excel的一个重要功能,公式可以让用户对数据进行复杂的分析和转换。但尽管表格中的公式语言比编程语言更容易学习,但编写这些公式仍然很复杂,并且一个符号没注意可能就会导致错误。
 
Google在2014年时开发了一个工具Smart Autofill,能够自动识别表格的pattern来填充每一列的缺失值,主要方法使用机器学习算法来预测新数据。
 
例如,一个表格中包含了所用车辆的四个特征:年份、英里数、车门数和车辆类型(汽车或卡车),根据这四个特征制定车辆的价格。这是一个典型的数据分析预测的场景,可以使用算法根据表格内已经提供的数据(作为训练集)来估计缺失的价格。
 
 
这个工具虽好,但它却无法学习到复杂的公式,并且人工修正也十分麻烦。
 
时间来到2021年,借助BERT在序列模型上的威力,Google在ICML 2021上提出了一个新模型,能够基于目标单元周围的上下文自动生成公式。
 
 
论文的第一作者是陈昕昀,目前是加州大学伯克利分校的在读博士,由Dawn Song教授指导。本科毕业于上海交通大学ACM班,获得计算机科学学士学位。目前是Deepmind的一名研究实习生,曾于2019年、2020年在Google Brain做实习生。主要研究兴趣包括神经网络程序综合和对抗机器学习。
 
 
当用户开始在目标单元格中编写带有「=」符号的公式时,系统通过学习历史表格中公式的模式,为该单元格生成可能的相关公式。该模型使用目标单元格的相邻行和列中的数据以及标题行作为上下文。
 
它首先将相邻单元和标题单元组成的表格的上下文结构编码为一个embedding,然后使用该上下文嵌入生成所需的表格公式。
 
公式生成部分包括两个组件:
 
  1. 运算符序列(例如,sum、if等);

  2. 应用运算符的表格范围(例如A2:A10)。

 
目前Google Sheets 的用户已经可以正式使用这个功能了!
 
 
模型使用的架构仍然是encoder-decoder,这个结构也让研究人员能够灵活地将多种类型的上下文信息(例如包含在相邻行、列、标题等中)嵌入到编码器中,解码器可以使用该结构生成所需的公式。
 
为了计算表格上下文的embedding,它首先使用基于BERT的模型架构对目标单元附近的多行(以及标题行)进行编码。每个单元格中的内容包括其数据类型(如数字、字符串等)和值,同一行中的单元格内容被级联到一个token序列中以便输入到BERT encoder。

类似地,模型还会对目标单元格左侧和右侧的几列进行编码,然后在两个 BERT 编码器上执行行和列卷积以计算上下文的聚合表示。
 
解码器则使用LSTM生成所需的目标公式作为token序列。首先模型预测出由公式运算符组成的公式结构(formula-sketch),然后使用与目标单元格相关的单元格地址生成相应的范围。

模型还利用注意力机制来计算表头和单元数据上的注意力向量,在做出预测之前,直接将这些注意力向量连接到LSTM输出层。
 
 
除了利用相邻行和列中的数据外,该模型还利用来自顶层工作表结构(如标题)的其他信息,使用tpu进行模型预测,从而保证了以低延迟的效果生成公式建议,并且能够在较少的机器上处理更多的请求。
 
 
模型的训练数据集主要是一个由Google创建并与Google共享的电子表格语料库。数据集包含4.6万张谷歌表格,其中4.2万张用于训练,2300张用于验证,1700张用于测试。
 
实验结果表明,该模型具有42.5%的完整公式精度和57.4%的完整公式框架精度,这两个指标的准确率足够高,足以支撑产品上线服务于初期用户。并且随着产品收集到更多数据,精度肯定还会上升。
 
研究人员还进行了一项消融实验,通过去除不同的组件来测试模型的几种简化版本,发现基于行和列的上下文嵌入以及标题信息对模型的性能至关重要。
 
 
未来可能会有更多基于这方面的研究,包括设计新的模型架构来合并更多表格结构,以及扩展模型以支持电子表格中bug检测和自动图表创建等更多应用。


参考资料:

https://ai.googleblog.com/2021/10/predicting-spreadsheet-formulas-from.html



登录查看更多
0

相关内容

【Google AI】鲁棒图神经网络,Robust Graph Neural Networks
专知会员服务
37+阅读 · 2022年3月9日
[ICCV 2021] 联合视觉语义推理:文本识别的多级解码器
专知会员服务
18+阅读 · 2021年11月28日
最新《时序分类:深度序列模型》教程,172页ppt
专知会员服务
42+阅读 · 2020年11月11日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
34+阅读 · 2020年6月17日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
比MAE更强,FAIR新方法MaskFeat用HOG刷新多个SOTA
机器之心
0+阅读 · 2022年1月6日
IBM推出127量子比特处理器,超越谷歌和中科大
量子位
0+阅读 · 2021年11月17日
Google Research新成果,让表格理解和检索更上一层楼!
夕小瑶的卖萌屋
1+阅读 · 2021年9月28日
【CSIG奖励访谈】2020年度CSIG优秀博士学位论文奖获奖者张平平
中国图象图形学学会CSIG
1+阅读 · 2021年7月30日
如何用Keras来构建LSTM模型,并且调参
AI研习社
19+阅读 · 2019年2月8日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
14+阅读 · 2018年5月15日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员