This paper outlines the use of Transformer networks trained to translate math word problems to equivalent arithmetic expressions in infix, prefix, and postfix notations. We compare results produced by many neural configurations and find that most configurations outperform previously reported approaches on three of four datasets with significant increases in accuracy of over 20 percentage points. The best neural approaches boost accuracy by 30% when compared to the previous state-of-the-art on some datasets.


翻译:本文概述了如何使用经过培训的变换器网络将数学词问题转换成等效的数学表达式( Infix, 前缀和后缀符号 ) 。 我们比较了许多神经配置的结果,发现大多数配置都超过先前报告的四套数据集中三个数据集的方法,其精确度明显提高超过20个百分点。 与某些数据集的先前最新数据相比,最好的神经方法提高了30%的精确度。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
专知会员服务
76+阅读 · 2021年3月16日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
《科学》(20190426出版)一周论文导读
科学网
5+阅读 · 2019年4月27日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Arxiv
4+阅读 · 2020年5月25日
Arxiv
6+阅读 · 2020年4月14日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
《科学》(20190426出版)一周论文导读
科学网
5+阅读 · 2019年4月27日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Top
微信扫码咨询专知VIP会员