尽管神经模型的广泛应用,训练后的神经模型依然是一个具有挑战性的可解释性课题,神经网络研究人员采用的许多知识和技能,可能被认为是深奥且晦涩的,旨在理解模型学到了什么,以及模型的内部工作如何改变其学习结果。理解这些模型学到了什么是至关重要的领域,因为越来越多的生产系统依赖神经模型来提供越来越多的高影响力应用。本研究提出了一种可解释性方法论,基于一种神经模型设计理念,重新定义了这些模型分析单元的范畴,从单个神经元扩展到一组互联的功能组件,我们称之为“神经路径”。这些功能组件是架构、数据和训练方案的结果,具有跨越结构边界的能力。这使得通过增强透明度,能够实现基于功能的、以人为中心的模型理解,从而促进模型与研究人员之间的对话。在本论文的研究过程中,我们在文献中做出了四个方面的贡献:首先,我们提供了一种神经模型可解释性的方法,针对子任务级别进行了严格验证,验证通过了一系列合成数据集;第二,我们通过提供一个框架,将学习到的功能组件与因果结构对齐,从而扩展了这一方法。这使得神经模型学习的功能与理论因果结构进行比较成为可能,进而快速验证我们对神经模型如何处理任务的理解;第三,我们扩展了该方法,能够比较和对齐不同架构或训练程序下的模型功能组件;最后,我们展示了神经路径方法在多个教育技术领域的应用能力。包括通过修辞结构分析提供自动化作文反馈、通过传递性检测进行小组形成以及自动化作文评分。最后一个贡献可以进一步细分为三个方面,按领域和重点分开。首先,神经路径被用来支撑神经话语解析器,使其能够更容易地推广到学生写作;接下来,我们展示了神经路径可以作为一种错误分析方法,探索在不同领域训练的模型在检测传递性上的表现差异;最后,我们展示了通过对AI写作检测器的微调,追踪问题路径变化的能力。由于神经路径方法的广泛适用性,我们乐观地认为该方法能够对神经模型的设计和开发产生广泛影响,我们的目标是提供一项具有扩展潜力的基础性工作,能够远远超出本论文的范围。

成为VIP会员查看完整内容
1

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【阿姆斯特丹博士论文】在语言模型中寻找结构
专知会员服务
24+阅读 · 2024年11月27日
【阿姆斯特丹博士论文】在视觉挑战条件下的多模态学习
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【普林斯顿博士论文】理解数据在模型决策中的作用
专知会员服务
39+阅读 · 2024年4月26日
【ETHZ博士论文】神经场景表示用于三维重建和场景理解
专知会员服务
36+阅读 · 2024年3月15日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
71+阅读 · 2023年3月26日
Arxiv
155+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员