AlphaCode惊世登场!编程版“阿法狗”悄悄参赛,击败一半程序员

2022 年 2 月 3 日 极市平台
↑ 点击 蓝字  关注极市平台

来源丨量子位
编辑丨极市平台

极市导读

 

会刷编程竞赛题的AlphaCode来了! >>加入极市CV技术交流群,走在计算机视觉的最前沿

今天,DeepMind的“Alpha”家族再添一名新成员:

会刷编程竞赛题的AlphaCode来了!

其实,AlphaCode早在几个月前就“悄悄进村”了,一直没人察觉。

它默默参加了著名网站Codeforces最近举行的10场编程比赛,成绩超过了一半人类

直到今天DeepMind才公布最终成绩:AlphaCode在这10场比赛中排名前54.3%,Elo评分1238

更重要的是,在编程比赛这样考察算法创造力的问题中,AI终于不落下风,而这恰恰是AI过去所欠缺的。

如果把这个分数放到过去六个月总体来看,AlphaCode的成绩更为优秀,因为它只刷了10周的题目,就已经达到了前28%用户的水平。

Codeforces是一个由俄罗斯程序员Mikhail Mirzayanov创办的编程竞赛网站,大约每周举行一次名为“Codeforces Rounds”的编程比赛。

通过Codeforces的Elo评分可以衡量一位程序员的编程水平。

 Codeforces创始人Mikhail Mirzayanov

当看到AlphaCode的成绩后,连创始人Mirzayanov都惊讶不已。

他原本对AI持怀疑态度,因为编程比赛考验的是发明算法的能力,这是最困难的,没想到AlphaCode的结果完全超出了他的预期。

DeepMind发布这条消息仅半天,在Twitter上已经有2000多次转发、5000多点赞。

AlphaCode如何编程

说了这么多,下面我们来看看AlphaCode是如何成为“编程做题家”的。

以下是Codeforces上的1553D问题:

(链接:https://codeforces.com/problemset/problem/1553/D)

有两个字符串s和t,都是由小写字母组成。对于字符串s,我们从前向后扫描整个字符串。

如果按下Backspace键,就删除该光标前到上一个未删除字符之间的所有字符。

例如字符串s是”abcbd”,你分别在第一个位置和第四个位置按下Backspace,那么将得到字符串”bd”。

因为在第一个光标位置前没有字符,所以第一次没有动作。第四个光标位置前的字符是c,上一个未删除字符是a,所以按下Backspace将删除前三个字符”bd”。

好了,现在问题来了:

我们能否从前向后扫描一次s字符串, 让s变为t。如果可以输出YES,否则输出NO。

AlphaCode给出的代码是这样的:

t=int(input()) 
for i in range(t):  
  s=input()  
  t=input()  
  a=[]  
  b=[]  
  for j in s:  
    a.append(j)  
  for j in t:  
    b.append(j)  
  a.reverse()  
  b.reverse()  
  c=[]  
  while len(b)!=0 and len(a)!=0:  
    if a[0]==b[0]:  
      c.append(b.pop(0))  
      a.pop(0)  
    elif a[0]!=b[0and len(a)!=1:  
      a.pop(0)  
      a.pop(0)  
    elif a[0]!=b[0and len(a)==1:  
      a.pop(0)  
  if len(b)==0:  
    print("YES")  
  else:  
    print("NO")

向以上程序输入4组字符串:


ababa 
ba 
ababa 
bb 
aaa 
aaaa 
aababa 
ababa

得到的输出是:

YES
NO
NO
YES

在这里,AlphaCode不再是黑箱。

它不仅成功解决了问题,还能将代码和注意力高亮的对应位置显示出来。

一位网友表示:既然AI能看得这么细,那么如果能在代码后面加入注释就更好了。

至于更多的案例,可以去AlphaCode网站观摩。

原理

DeepMind说,在Codeforces比赛中所需解决问题的能力,已经超出了现有AI系统的能力。

整个AlphaCode模型的流程如下:

  1. 用标准的语言建模目标在GitHub代码上预训练一个基于Transformer的语言模型。这个模型可以合理地代表人类编写代码的空间,大大减少了问题的搜索空间。

  2. 在竞争性编程数据集上微调模型,使用GOLD与tempering作为训练目标,进一步减少了搜索空间,并利用预训练弥补了少量的竞争性编程数据。

  3. 为每个问题从模型中生成非常多的样本。

  4. 对样本进行过滤,以获得一小部分候选提交的样本(最多10个),在隐藏的测试案例上进行评估,方法是利用实例测试和聚类,根据程序行为挑选样本。

总而言之,通过将大规模Transformer模型与大规模采样和过滤相结合,DeepMind在可以解决的问题数量方面取得了重大进展,比之前的工作高出一个数量级。

刷题人士抵触

正如Codeforces创始人所说,在编程问题中对算法的发明创造是最难的。

在全球编程比赛网站上常年排名前几的谷歌工程师Petr Mitrichev说:

解决编程比赛问题是一件非常困难的事情。它既需要良好的代码技能,也需要人类解决问题的创造力。

AlphaCode不是第一个编程工具,Codex以及GitHub Copilot都给人留下了深刻的印象。

但DeepMind认为,AlphaCode和前辈们大有不同:

最近的大规模语言模型展示了生成代码的惊人能力,现在能够完成简单的编程任务。然而,当对更复杂、看不见的问题进行评估时,这些模型的表现仍然很差,这些问题需要解决问题的技能,而不仅仅是将指令翻译成代码。

与Twitter上截然不同的是,Codeforces高手们却多有抵触情绪。

一位程序员认为:“这个AI真是个菜鸟。”

因为AlphaCode只有1238分,只相当于一个学生水平,一个参加信息学奥赛的中学生也能刷到这个水平。

虽然DeepMind声称AlphaCode是为了辅助人类,但也有程序员开始担心了:

现在连刷题的世界都被AI占领,本来这里是程序员们切磋的地方,AI应该适可而止,给程序员们留一片净土吧!

参考链接:
[1]
https://deepmind.com/blog/article/Competitive-programming-with-AlphaCode
[2]https://alphacode.deepmind.com/
[3]https://storage.googleapis.com/deepmind-media/AlphaCode/competition_level_code_generation_with_alphacode.pdf
[4]https://github.com/deepmind/code_contests

如果觉得有用,就请分享到朋友圈吧!

△点击卡片关注极市平台,获取 最新CV干货

公众号后台回复“transformer”获取最新Transformer综述论文下载~


极市干货
课程/比赛: 珠港澳人工智能算法大赛 保姆级零基础人工智能教程
算法trick 目标检测比赛中的tricks集锦 从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述: 一文弄懂各种loss function 工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~   


登录查看更多
0

相关内容

算法通关手册(LeetCode)
专知会员服务
156+阅读 · 2022年1月13日
专知会员服务
28+阅读 · 2021年10月4日
专知会员服务
53+阅读 · 2021年7月21日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
AI会话能力超越人类!CoQA挑战赛微软创新纪录
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
37+阅读 · 2021年9月28日
VIP会员
相关VIP内容
算法通关手册(LeetCode)
专知会员服务
156+阅读 · 2022年1月13日
专知会员服务
28+阅读 · 2021年10月4日
专知会员服务
53+阅读 · 2021年7月21日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员