学界 | AAAI-17论文提出深度学习C语言修改器DeepFix:用人工智能加「;」

2017 年 6 月 7 日 机器之心

选自aaai.org

机器之心编译

参与:吴攀


如果你是一个程序员,你一定体验过编译时报错的痛苦,有时候一个小错误可能就需要你很多时间检查许多代码才能找到。近日,印度科学研究所的几位研究者的一篇 AAAI-17 论文提出了一种用深度学习检测 C 语言代码中常见编程错误的方法 DeepFix,而且其不仅可以检测,还可以帮助修复。机器之心对该研究论文进行了摘要介绍。


论文原文请访问:https://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/view/14603/13921



自动修复编程错误的问题是软件工程领域一个非常活跃的研究主题。这个问题难度很大,因为修复单个错误也许就需要分析整个程序。在实际操作中,许多错误都是因为程序员对编程语言不熟练或没有注意细节所导致的。我们将这些错误称为常见编程错误(common programming errors)。它们类似于自然语言中的语法错误。编译器可以检测这样的错误,但它们得到的错误信息往往是不准确的。在这项成果中,我们提出了一种端到端的解决方案 DeepFix,其可以无需依赖任何外部工具来定位或修复,就可以修复一个程序中多个这样的错误。DeepFix 的核心是一个多层的序列到序列神经网络,带有注意(attention),其被训练用于预测错误的程序位置以及所需的正确写法。在一个由学生为 93 个编程任务编写的 6971 个错误 C 语言程序的集合中,DeepFix 可以完整修复其中 1881(27%)个,并且可以部分修复其中 1338(19%)个。


图 1:DeepFix 方法的示意图


图 2:DeepFix 的迭代式修复策略


表 1:数据集和结果汇总


我们提出的修复策略有几个优点:


  • 程序被完全呈现给该网络。识别和修复编程错误通常需要能够推断长期依赖(long term dependencies)的全局分析。该网络架构能够有选择地关注程序的任何部分,从而可以推理结构和语法约束来预测错误的位置和所需的修复。

  • 在输入和输出中包含行号,从而减小了粒度,并因此减小了预测任务的复杂度。

  • DeepFix 可以迭代式修复一个程序中的多个错误。

  • oracle 被用于跟踪进展以及防止出现没有帮助或任意的改变。

  • DeepFix 的修复策略是相当通用的。比如说,如果我们试图修复逻辑错误,我们可以使用一个带有测试套件(比如 oracle)的测试引擎。如果一个修复导致该程序能通过更多测试,那么该修复就会被接受。


图 3:在原始数据集上,错误程序中任务的减少


表 2:错误类型和对应原因的总结


图 4:排名前 4 的错误信息,以及在原始数据集上修复前后的错误信息的数量


图 5:在原始数据集上每次迭代之后的错误信息的数量


图 6:正确(圆圈)和不正确(三角形)程序的向量表示的 PCA 投影


表 3:种子数据集的固定长度和固定准确度 。 



更多有关GMIS 2017大会的内容,请点击「阅读原文」查看机器之心官网↓↓↓

登录查看更多
0

相关内容

【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
AAAI 2019 四个杰出论文奖论文揭晓
算法与数学之美
5+阅读 · 2019年5月11日
【学界】AAAI 2019 论文解读 | 基于区域分解集成的目标检测
GAN生成式对抗网络
8+阅读 · 2019年3月4日
论文浅尝 | 变分知识图谱推理:在KG中引入变分推理框架
2018年,人工智能领域仍然有五大难题需要解决
DeepTech深科技
5+阅读 · 2017年12月27日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
6+阅读 · 2019年7月11日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关论文
Arxiv
22+阅读 · 2019年11月24日
Arxiv
6+阅读 · 2019年7月11日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
13+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员