AI 模仿人脑究竟靠不靠谱?

2018 年 9 月 6 日 CSDN


【CSDN编者按】8月23日,李彦宏在首届中国国际智能产业博览会上,曾发言称,“通过研究人脑工作,来让机器像人一样思考,是行不通的”。

那么,人类究竟是否可以,把AI训练得像人一样思考和积累经验呢?今天这篇文章,将会通过几个小实验,来研究下AI模仿人类行为的能力,到底可以达到什么地步。一起往下看吧!

许多人认为人工智能(AI)是个“黑盒子”,其实这么说也没错。AI的最大问题之一,就是我们很难理解它解释数据的方式。


一个小游戏


在进一步研究之前,让我们先来做个小游戏。我给你展示一系列抽象的图片,它们属于分类A或B中的某个。


你认为下面的图像属于分类A还是分类B?提示:没有分类C。

我们稍后再说结果。我们来看看更多的例子。



现在你能判断它属于A还是B了吗?


答案是……A!

选了B也不要难过,你不是唯一一个,选择了B的人。我问了整个屋子里所有的工程师和开发者,答案大概是一半一半。所以……为什么答案是A?

因为我说了答案是A。

答案就是A,不用跟我抬杠,但如果你不同意,那就说明我这个训练师当得不好。

作为训练师,我知道A代表红圈。所以任何中间有红圈的都是A。我也知道B是橙色的圈。其他的图像都是无关的。所以,只需要找到一组图像中的特征,但非常难。

在AI系统中,我没办法把组成A的图像的规则,用语言描述出来。我只能给它提供大量图片,期待它能发现规律。

而你,作为人工智能,也没办法,告诉我为什么你选了B。我只能不断地给你数据,直到你给出正确结果。


苹果还是橙子?


下面是同样的一组图片,只不过没那么抽象了。如果我问你同样的问题,任何人都会立即回答,A是苹果而B是橙子。

这个问题太过简单,许多人甚至认为是脑筋急转弯。我们都知道,手和背景中的一切,都是无关信息,因为我们人类从出生开始,就在学习这些东西。但人工智能并不知道。对于它来说,图像都是抽象的,它并不知道你关注的是什么。


我们来看另一个场景,这个场景能演示,我们可能给了AI系统错误的信号。我们有一些橡树的样例(我住的地方有点阴天)。


下面是一些棕榈树(这些是在阳光明媚的沙滩上的)。

下面这张图是棕榈树,但光照环境与橡树图片更相似。那么,我们该关注哪些因素?光照?还是树的形状?模型很难做出判断。

Confidence:
- Palm 0.75
- Oak 0.60

从这个例子中可以明显看出,我们无意间给AI,留了另一种模式去学习。但实际情况远没有这个例子明显。


我们怎样才能知道AI关注了什么?


我们可以在图片上,放一个矩形框,然后记录下自信值的变化。如果自信值降低,那么遮住的那片,很可能是重要区域。

哪张图更能猜出这根线是USB线?

第一张图完全盖住了接口,因此几乎没办法猜出,所以我们认为矩形框盖住的部分是重要的。但在第二张途中,矩形框完全没有影响我们,猜测线缆类型的能力。因此,可以安全地标记这片区域,为不重要的。

我们可以继续在图片上放置矩形,来建立图片重要性的热区图。

可以看出,模型关注的是接口的尖端,这很好。它关注了我们希望它关注的部分。

我们来看看一个训练得不太好的模型。

Confidence:
- USB 0.76

模型正确地预测出,线缆是USB,自信值为0.76。这个结果可以接受,特别是在照片距离较远、质量也不高的情况下。

但是,仔细检查后发现,模型似乎关注了错误的地方,而不是我们希望的线缆一端。

模型似乎过分关注了线缆本身和手指。为了提高准确度,我们可以提供更多线缆和手的图片,作为反面训练集。

我们不需要大量的通用数据,来训练模型直到模型变好。利用这些信息作为辅助,可以省下大量时间和金钱。


实验感想


哇,这太棒了!但我不想花精力去实现。但好消息是,你可以在我的GitHub上,找到完整的iOS应用(https://github.com/bourdakos1/visual-recognition-with-coreml)

建立自己的模型很容易,但建好模型并不代表工作结束了。机器学习最重要的部分永远是输出好的数据。

我们可以让基础的底线,采用类似的姿态、光照条件,并采用稳定的照片对模型进行训练,得到好的模型。之后,可以使用工具和直觉,看看AI的思考过程。

原文:https://hackernoon.com/understanding-what-artificial-intelligence-actually-sees-7d4e5b9e648e

作者:Nick Bourdakos,IBM Watson的计算机视觉专家。

译者:弯月,责编:胡巍巍

登录查看更多
2

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
美联储若降息意味着什么?
FT中文网
3+阅读 · 2019年6月28日
AI 最大的挑战:也许我们从根上就错了
InfoQ
5+阅读 · 2019年6月14日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
拔刺 | 如何通过人工神经网络实现图像识别?
羞羞的AI,如何改变色情产业?
虎嗅网
9+阅读 · 2017年11月24日
从0到1,漫谈步态识别那些事
机器学习研究会
10+阅读 · 2017年9月24日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
什么是常识?
keso怎么看
4+阅读 · 2017年8月2日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
9+阅读 · 2020年2月15日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关资讯
美联储若降息意味着什么?
FT中文网
3+阅读 · 2019年6月28日
AI 最大的挑战:也许我们从根上就错了
InfoQ
5+阅读 · 2019年6月14日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
拔刺 | 如何通过人工神经网络实现图像识别?
羞羞的AI,如何改变色情产业?
虎嗅网
9+阅读 · 2017年11月24日
从0到1,漫谈步态识别那些事
机器学习研究会
10+阅读 · 2017年9月24日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
什么是常识?
keso怎么看
4+阅读 · 2017年8月2日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
Top
微信扫码咨询专知VIP会员