自从神经网络在人工智能领域成为主导技术以来,一个研究子领域已经出现,试图理解它们的内部工作机制。在这个子领域中的一种标准方法是主要理解神经网络如何表征人类可理解的特征。另一种较少探索的可能性是将它们理解为多步骤的计算机程序。这似乎需要一种模块化的前提:网络的不同部分需要足够独立地运作,以便能够单独理解,并实现不同的可解释子程序。

为了在神经网络内部找到模块化结构,我们最初使用图形聚类工具。如果一个网络可以被划分为具有强内部连接但外部连接弱的神经元群组,那么这个网络在这个意义上是可聚类的。我们发现,训练过的神经网络通常比随机初始化的网络更具聚类性,而且常常相对于具有与训练网络相同权重分布的随机网络具有聚类性。我们研究促进聚类性的因素,并且还开发了针对这一目的的新方法。

为了使模块化对理解神经网络有价值,它需要具有某种功能相关性。我们关注的功能相关性类型是功能的局部专业化。一个神经网络在其计算图的部分可以被抽象地表示为执行某些与整体任务相关的可理解子任务的程度上局部专业化。我们提出了两个局部专业化的代理:重要性,反映了神经元集合对网络性能的价值;以及一致性,反映了它们的神经元与输入特征的关联一致性。然后,我们使用通常用来解释单个神经元的技术来操作这些代理,将它们应用于由图聚类算法产生的神经元组。我们的结果显示,聚类成功地找到了重要且一致的神经元组,尽管并非所有发现的神经元组都是这样。我们最后通过一个案例研究来总结,使用更标准的可解释性工具,这些工具旨在理解激活空间中方向所代表的特征,将它们应用于对CoinRun游戏的奖励函数训练的神经网络的分析。

尽管我们的网络实现了低测试损失,但应用可解释性工具显示,网络没有充分代表相关特征,并且在分布外严重误预测奖励。即便如此,这些工具并没有清晰地揭示网络实际上正在执行的计算。这不仅说明了需要更好的可解释性工具来理解泛化行为的必要性,而且也激发了这种需求:如果我们将这些网络视为通过强化学习训练的政策的“动机系统”的模型,那么结论是这样的网络可能在更丰富的环境中追求错误的目标,表明需要可解释性技术来阐明泛化行为。

成为VIP会员查看完整内容
45

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
激活的三十年:神经网络400个激活函数的全面综述
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
20+阅读 · 2月15日
专知会员服务
64+阅读 · 2021年7月25日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【KDD2020】图神经网络:基础与应用,322页ppt
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
20+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
相关资讯
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【KDD2020】图神经网络:基础与应用,322页ppt
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员