网络(或可互换的图表)在全球范围内以及科学和工程领域中已经无处不在:社会网络、协作网络、蛋白质-蛋白质相互作用网络、基础设施网络等等。图上的机器学习,特别是网络表示学习,在与图相关的任务中表现出了卓越的性能,如节点/图分类、图聚类和链接预测。这些任务与Web应用程序密切相关,尤其是社交网络分析和推荐系统。例如,节点分类和图聚类被广泛应用于社区检测的研究中,而链接预测在朋友或物品推荐中起着至关重要的作用。与性能一样,理解机器学习模型的行为,并能够解释这些模型是如何做出某个决定的,对个人来说也是至关重要的。这种需求激发了许多关于机器学习可解释性的研究。具体来说,对于社交网络分析,我们可能需要知道为什么某些用户(或群体)被机器学习模型分类或聚在一起,或者为什么一个朋友推荐系统认为一些用户相似,从而推荐他们相互联系。在这种情况下,一种可解释的网络表示是必要的,它应该把图信息带到人类可以理解的水平。
在本教程中,我们将 (1) 定义可解释性,并在网络研究的不同背景下回顾其定义; (2) 回顾总结各种可解释网络表征; (3) 讨论与网络嵌入、图摘要和网络可视化方法的联系; (4) 讨论图神经网络的可解释性,因为这类技术通常被认为具有有限的可解释性; (5) 指出有待解决的研究问题和未来的研究方向。本教程是为研究人员、研究生和从业人员设计的,这些领域包括图挖掘、图机器学习和机器学习可解释性。
https://shengminjin.github.io/tutorials/www2022
目录内容:
引言 Introduction 网络设置可解释性 Interpretability in Network Settings Network Properties Spectral Properties Relationship Between a Network and its Subgraphs 可解释网络表示 Interpretable Network Representations Graph Summarization Methods Network Embedding Methods Network Visualization Demo 图神经网络及可解释性 Graph Neural Network and its Explainability Q & A