AI 最大的挑战:也许我们从根上就错了

2019 年 6 月 14 日 InfoQ

作者 | Garrett Kenyon
译者 | 姚佳灵

为了让 AI 真正智能化,研究人员需要重新思考他们使用这项技术的方式。

最近签署的建立美国人工智能倡议的行政命令将人工智能视为美国竞争力和国防的核心。但是,目前尚不清楚人工智能是否已经取得了很多人声称的成就。事实上,目前的技术并没有显示出任何令人信服的迹象,表明有任何东西正在接近“智能”。

美国要保持人工智能的霸主地位,最好的方法是采取更接近人类学习方式的策略,这将使我们走上人工智能所承诺的经济增长和广泛社会效益的道路。

这是大多数深度学习神经网络所面临的挑战,它们反映了人工智能的主流方法:既称它们为深度学习神经网络,又称它们为智能学习神经网络,假设它们在更深层次的网络上实现了更抽象和更有意义的数据表示。它进一步假设,在某些程度上,它们超越了死记硬背,实现了真正的认知或智能。但是,它们并没有。


以计算机视觉为例,其中深度神经网络已经在基准图像分类任务上实现了惊人的性能改进。假设计算机视觉算法的任务是正确标记图像为猫或狗。如果算法正确地标记了图像,那么,我们可能会得出结论,潜在的深度神经网络已经学会区分猫和狗。

现在,假设所有的狗都戴着闪亮的金属狗牌,而猫没有。那么,最可能的情况是深度神经网络完全没有学会观察猫和狗,而只是学会检测闪亮的金属牌。最近的研究工作表明,像这样的情况实际上支撑着深度神经网络在计算机视觉任务中的表现。这种解释也许不像闪亮的金属牌那么明显,但是,大多数学术数据集都包含类似的无意线索,而深度学习算法利用了这些线索。

使用旨在挫败神经网络的对抗性示例,更增加了令人不安的证据,即深度神经网络也许根本没有“看到”而只是检测表面的图像特征。简而言之,对抗性的例子是通过逆向运行用于训练深度神经网络的相同计算工具来创建的。研究人员发现,对图像进行非常轻微的修改(人类无法察觉)可能会诱使深度神经网络对图像进行错误的分类,而且常常是根本性的错误。

事实证明,问题在于计算上的误导。仅仅添加或删除几个像素就可以消除深度神经网络已经学会依赖的特定线索。更根本的是,这个错误表明深度神经网络依赖表面图像特征,而这些图像特征通常没有什么意义,至少对于人类来说是这样的。


这就为不怀好意的人利用有针对性的对抗性示例创造了严重恶作剧的机会。例如,如果你指望自动驾驶汽车的图像识别系统能够识别路标,或者安全系统能够识别指纹,那么你就有麻烦了。

这个缺陷是架构中固有的。Naftali Tishby 最近在以色列领导的一项研究发现,深度神经网络会在每一层上有选择地丢弃非必要的信息。一个训练有素的深度神经网络丢弃了如此多的信息,变得非常依赖于仅有的几个表面特征(如闪亮的金属牌),意味着它失去了所有表面的智能。更准确地说,深度学习变成了深度遗忘。

更糟糕的是,深度神经网络没有能力通过类比来学习,而类比是所有智能的基础。例如,人类和其他动物利用类比了解世界是由拥有共同属性的物体组成。无论是岩石、苹果,还是棒球,所有这些物体都会掉到地面上,因为它们都遵循在智能发展过程中学到的直观物理定律。

布朗大学的研究人员最近测试了深度神经网络是否能通过类比来学习。该研究团队发现,神经网络没能学习同一性的概念。深度神经网络不是通过类比学习将类似图像的示例链接到训练图像集中的基本概念,而是简单地记住一组模板来正确标记训练集中的图像。神经网络没有在训练集外部泛化的能力。

很难想象还有什么比不能通过类比来学习更能强烈地谴责深度学习了。从本质上说,所有的认知发展都建立在学习和抽象一系列具体例子背后的原则之上。迄今为止,深度学习的失败揭示了当前人工智能系统所呈现的智能表象背后的空虚。


我们跳过了漫长而缓慢的认知发展过程,专注于解决具有高度商业化或市场营销价值的特定任务,从而剥夺了人工智能使用智能方式处理信息的能力。

当真正的智能机器最终崛起时(很可能会),它们将不再像深度神经网络或其他当前的人工智能算法那样。与生物机器一样,智能机器必须通过类比来学习,才能对周围的物理现象有一个直观的理解。为了达到这样的未来,我们必须先后退,留给我们的机器一段婴儿期,让它们在这段时间里跌跌撞撞地穿越世界的结构,发现所有智能推理所依赖的直观物理学。

英文原文

https://blogs.scientificamerican.com/observations/ais-big-challenge1/

点个在看少个 bug 👇

登录查看更多
5

相关内容

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。
社区检测的深度学习:进展、挑战和机遇
专知会员服务
45+阅读 · 2020年7月9日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
176+阅读 · 2020年5月29日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
194+阅读 · 2020年3月8日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
156+阅读 · 2019年12月21日
2019 年,最值得回顾的十大 AI 学术观点
AI科技评论
6+阅读 · 2019年12月31日
NLP模型超越人类水平?你可能碰到了大忽悠
人工智能学家
6+阅读 · 2019年9月10日
已删除
AI科技评论
4+阅读 · 2018年8月12日
谷歌的AI将乌龟认成步枪,这为何是个大问题
硅谷第一线
3+阅读 · 2017年11月22日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
13+阅读 · 2018年4月6日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关资讯
2019 年,最值得回顾的十大 AI 学术观点
AI科技评论
6+阅读 · 2019年12月31日
NLP模型超越人类水平?你可能碰到了大忽悠
人工智能学家
6+阅读 · 2019年9月10日
已删除
AI科技评论
4+阅读 · 2018年8月12日
谷歌的AI将乌龟认成步枪,这为何是个大问题
硅谷第一线
3+阅读 · 2017年11月22日
AI都干过什么让人细思极恐的事?
全球创新论坛
4+阅读 · 2017年9月15日
相关论文
Top
微信扫码咨询专知VIP会员