在过去的十年中,自然语言处理(NLP)系统几乎完全建立在大型神经模型的基础上。由于这些模型的能力,可行的任务范围扩大了,应用的空间也扩大了,包括具有现实世界影响的子领域,如事实核查、假新闻检测和医疗决策支持。这些模型的规模和非线性的增加导致了不透明,阻碍了机器学习从业者和外行用户理解其内部原理并从其预测中获得意义或信任的努力。可解释人工智能(XAI)和更具体的可解释NLP (ExNLP)领域通过提供对人类用户有意义的文本解释,已成为纠正这种不透明度并确保模型在高风险场景中的可靠性和可信性的活跃领域。可以检查为其个人预测提供理由的模型,以调试、量化偏差和公平性、理解模型行为以及确定鲁棒性和隐私(Molnar 2019)。无论任务模式如何,文本解释是机器学习数据集中的主要解释形式。因此,本文涵盖了自然语言任务解释和自然语言任务解释两个方面。本文提出了两种语义定义下的模型解释质量评估测试集:忠实度(faithfulness)和人类可接受性(human acceptability)。我使用这些评估方法来研究两种解释形式和三种模型架构的效用。最后,我提出了两种方法来提高解释质量——一种增加了忠实突出解释的可能性,另一种提高了人类对自由文本解释的可接受性。本文努力增加在实践中部署人工智能系统时积极使用和产生结果的可能性。

成为VIP会员查看完整内容
44

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
164+阅读 · 2023年3月26日
专知会员服务
47+阅读 · 2021年9月5日
自然语言处理现代方法,176页pdf
专知会员服务
263+阅读 · 2021年2月22日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
215+阅读 · 2020年10月8日
【硬核书】机器学习对抗鲁棒性,276页pdf
专知
7+阅读 · 2022年9月20日
神经网络的基础数学,95页pdf
专知
22+阅读 · 2022年1月23日
自然语言处理常识推理综述论文,60页pdf
专知
69+阅读 · 2019年4月4日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月2日
Arxiv
1+阅读 · 2023年5月2日
Arxiv
4+阅读 · 2023年5月1日
Arxiv
53+阅读 · 2023年3月26日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员