10月AI热文:强化学习、定制合成人脸、道德机器等

2018 年 11 月 10 日 新智元




  新智元报道  

来源:blog.sicara.com

作者:Antoine Ogier  编译:肖琴

【新智元导读】10月最热的10篇AI相关文章,介绍谷歌、OpenAI、MIT等的最新研究,以及AI道德判断、算法偏见等受关注话题。


1. 谷歌如何利用强化学习来提出正确的问题



当搜索引擎找不到你想要的答案时,你会怎么做?你会试着重新组织提问吧。


谷歌正试图通过新的Active Question Answering(Active QA)智能体来模仿这一点,这是一个使用强化学习来训练AI进行问答的系统。当你提出一个问题时,它会产生很多有相似含义的问题。它会搜索所有问题的答案,然后选择最好的答案返回给你。


这有助于聊天机器人取得进步。与其让你在它们不明白的时候重新组织措辞提问,不如让它们自己去做!


而且,它是开源的。


阅读:

What’s New in Deep Learning Research: How Google Uses Reinforcement Learning to Ask All the Right Questions— from Jesus Rodriguez

https://towardsdatascience.com/whats-new-in-deep-learning-research-how-google-uses-reinforcement-learning-to-ask-all-the-right-69c172f113c4


2. OpenAI新方法教AI如何学习



通常,当我们训练AI去执行某项任务时,我们需要用某种方法来告诉它做得有多好,或者至少向它展示一些任务做得很好的例子。


但是,对于难以评估性能的、高度复杂的任务,该怎么做呢?有时候,即使是人类也无法向AI展示如何做某事——比如管理整个城市的交通系统。


OpenAI提出一种新方法使AI能够将任务分解为更小的子任务,称为“迭代扩增”(Iterated Amplification)。然后,它会要求人类对这些子任务提供demo。基于此,它可以独立解决大任务。


这项技术还处于非常早期的阶段,但由于它来自OpenAI,接下来几个月应该会有更新,保持关注。


阅读:

Learning Complex Goals with Iterated Amplification — from OpenAI

https://blog.openai.com/amplifying-ai-training/


3、MIT道德机器



自动驾驶汽车相关的一个主要问题是,它们最终将不得不做出连人类都无法做决定的道德选择。


如果不避让就会撞上一群人,避让就会撞上另一个人,它应该避开人群吗?它应该保护乘客,还是保护行人?它应该保护年轻人还是老年人?尽管这些情况极为罕见,但很显然,这些情况确实有可能发生。


MIT媒体实验室的这篇文章分析了道德机器(Moral Machine)的结果,他们做了一个实验,调查了数百万人针对这些情况的决策。


答案因国家而异。例如,西方国家的人比东方国家的人更倾向于选择保护年轻人。


现在就考虑这些问题是很有必要的,因为在某些时候,汽车制造商和程序员将不得不做这样的决策:一旦自动驾驶汽车面临两个都很糟糕的结果,它无法拒绝选择。


阅读:

Should a self-driving car kill the baby or the grandma? Depends on where you’re from— from MIT Media Lab 

Nature大型调查:当AI遭遇电车难题,它将拯救谁?

https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/


4. 带答案的图表



制作有助于理解数据集的图表是很困难的。当存在很多变量和数据点时,任何可视化的尝试都可能令人感到混乱、不完整和误导性。


这篇文章提出一个解决办法:当你做图表时,问自己一个你想要它回答的问题


通过确保你的图表有一个清晰的焦点,可以避免图形过于笼统——从而导致无用。


在这篇文章中,作者将引导你完成探索一个数据集的过程,每次一个问题。其中有些图表能让你感觉自己非常了解这些数据。


阅读:

Ask the Question, Visualize the Answer — from FlowingData

https://flowingdata.com/2018/10/17/ask-the-question-visualize-the-answer/


5. 从好奇到拖延



在强化学习中,AI学会与环境进行交互,并在表现良好时获得奖励。利用这些奖励,它能学习如何执行任务,例如玩游戏或在迷宫中寻找物品。


但有时候奖励很难获取,在得到下一个奖励之前,AI不知道它是否做得很好。对这种情况的解决方案之一是引入好奇心(curiosity),有好奇心的情况下,AI会因为发现新事物而奖励自己。


这通常会产生奇妙的效果,但谷歌AI的研究人员这次尝试了不同的方法:他们在迷宫中放置了一个具有好奇心的AI,并放了一台电视机和遥控器。


猜猜发生了什么:AI一直呆在电视机前,不停切换频道!它学会了拖延。


这其实很有道理:对于AI来说,新频道是一种“新东西”,因此不断切换频道对它的好奇心是非常有益的。


也许有时候让AI过于人性化不是一个好主意:)


阅读:

Curiosity and Procrastination in Reinforcement Learning— from Google’s AI blog

ai.googleblog.com/2018/10/curiosity-and-procrastination-in.html


6. 如何画猫?



Quick, Draw!是Google开发的一个AI小游戏,它要求你随便画一些东西,然后AI会识别你画的东西。这个小游戏产生了一个巨大的数据集,来自世界各地的人们绘制了超过5000万张画。


这篇文章探讨了可视化这个有趣的数据集的一种聪明的方法。你知道美国人画的冰淇淋甜筒是一勺的,而意大利人画的是三勺吗?你能想到人们画瑜伽姿势会画出多少种方式吗?


使用像t-sne和autoencoders这样的方法,我们可以把这些杂乱无章的图像转换成地图。有了它,我们可以探索更多这样的模式。


阅读:

Machine Learning for Visualization—from Ian Johnson

https://medium.com/@enjalot/machine-learning-for-visualization-927a9dff1cab


7. 亚马逊的性别歧视人工智能



亚马逊最近试图使用机器学习,通过分析求职者的简历来选择参加面试的候选人。事情进行得并不顺利。


简单的说,该算法分析了过去的招聘数据——男性的比例普遍过高——得出的结论是,女性真的不太可能被聘用,因此它将女性的简历放在不利的地位。


这是各种各样推荐系统的常见缺陷,但最近的新闻表明,即使是拥有大量资源的大公司也会上当。


好消息是,这种情况已经结束了,所以你大可以提交申请,不用担心性别歧视。但这是一个很好的提醒,提醒我们机器学习系统经常受到数据的影响。


据路透社报道,亚马逊弃用了对女性有偏见的AI招聘工具。


阅读: 

Amazon scraps secret AI recruiting tool that showed bias against women— from Reuters

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G


8. 不确定性问题



有时候,仅仅知道你平均来看击中了中心是不够的,你需要知道每一次射击的结果离中心有多近。评估置信度对于好的预测是至关重要的。


今年1月,数据分析师Erik Bernhardsson决定为他所做的每一个预测提供不确定性估计。


实验结束后,他发表了这份指南,提供了简单的方法和代码来估计不确定性。如果你想学习如何在不需深入复杂数学的情况下做到这一点,看这篇文章就好了!


阅读:

The hacker’s guide to uncertainty estimates — from Erik Bernhardsson

https://erikbern.com/2018/10/08/the-hackers-guide-to-uncertainty-estimates.html


9. 定制合成人脸



你可能已经听说过生成对抗网络(GAN)被用于生成人脸,或改变人脸的特征,例如使其看起来更年老。


在这篇文章中,作者更进了一步。除了生成人脸之外,他的系统还可以学习连续修改任何一种面部特征。


这很厉害。大多数现有模型只学习执行一次转换(利用从年轻变成年老,从女人变成男人):转换的类型和范围都是固定的。任何改变都需要对模型和新数据集全面地进行重新训练。


在这个研究中,一旦系统被训练好,你可以很方便地添加新的可修改特性。另外,你可以做任何程度的改变——无论你想让脸看起来更年轻一点还是更年老一点,都可以做到。


感兴趣吗?请看这个令人印象深刻的演示:


阅读:

Generating custom photo-realistic faces using AI — from Shaobo GUAN

https://blog.insightdatascience.com/generating-custom-photo-realistic-faces-using-ai


10. 发现假视频



“我们正在进入一个时代,在这个时代里,我们的敌人可以制造让任何人在任何时候说任何话的视频,并且让它看起来像真实的。”美国前总统奥巴马(Barack Obama)从未说过这话。这是一个假视频演示的。


这只是deepfake(人工智能生成的假视频)的一个例子。这些假视频难以置信地令人信服,虽然有些很有趣,但它们也可以被用来实施欺骗和传播虚假信息。


在这篇文章中,研究人员解释了他们发现的检测deepfakes假视频的方法。从检查人物眨眼的方式到检查压缩率,仍有一些信息会暴露deepfakes。


但这场斗争是永无止境的。一旦发现了假视频的缺陷,deepfake的制造者就会采取行动进行纠正。为了领先一步,必须持续研究。


阅读:

These new tricks can outsmart deepfake videos — for now — from Wired

https://www.wired.com/story/these-new-tricks-can-outsmart-deepfake-videosfor-now/



【加入社群】


新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_3  入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。


登录查看更多
0

相关内容

OpenAI,由诸多硅谷大亨联合建立的人工智能非营利组织。2015年马斯克与其他硅谷科技大亨进行连续对话后,决定共同创建OpenAI,希望能够预防人工智能的灾难性影响,推动人工智能发挥积极作用。特斯拉电动汽车公司与美国太空技术探索公司SpaceX创始人马斯克、Y Combinator总裁阿尔特曼、天使投资人彼得·泰尔(Peter Thiel)以及其他硅谷巨头去年12月份承诺向OpenAI注资10亿美元。
最新《Deepfakes:创造与检测》2020综述论文,36页pdf
专知会员服务
62+阅读 · 2020年5月15日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
169+阅读 · 2020年2月8日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
【强化学习】深度强化学习初学者指南
专知会员服务
178+阅读 · 2019年12月14日
【斯坦福&Google】面向机器人的机器学习,63页PPT
专知会员服务
23+阅读 · 2019年11月19日
动态 | 2019 年 1 月 AI 最佳网文榜单最新出炉!
AI科技评论
4+阅读 · 2019年2月9日
DeepMind:用PopArt进行多任务深度强化学习
论智
27+阅读 · 2018年9月14日
时代聚焦AI安全——可解释性
云栖社区
9+阅读 · 2018年1月21日
【学界】伯克利吴翼&FAIR田渊栋等人提出强化学习环境Hourse3D
GAN生成式对抗网络
5+阅读 · 2018年1月13日
【深度强化学习】深度强化学习揭秘
产业智能官
20+阅读 · 2017年11月13日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
8+阅读 · 2019年2月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
135+阅读 · 2018年10月8日
Learning Recommender Systems from Multi-Behavior Data
Arxiv
11+阅读 · 2018年4月25日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关论文
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
8+阅读 · 2019年2月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
135+阅读 · 2018年10月8日
Learning Recommender Systems from Multi-Behavior Data
Arxiv
11+阅读 · 2018年4月25日
Arxiv
12+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员