特伦托大学和剑桥大学的研究人员引入了一种名为 xAI-Drop 的可解释性驱动的 GNN dropping 正则化器。xAI-Drop 通过利用局部可解释性和过度自信作为关键指标,在训练期间识别并排除噪声图元素。这种方法可以防止模型关注虚假模式,使其能够学习更鲁棒、更具解释性的表示。对各种基准的实证评估表明,与现有的 dropping 策略...
近几年,可解释AI(XAI)成为人工智能领域的重点关注方向。GNN模型因其特殊的数据结构(not grid-like;离散邻接矩阵;属性与结构信息共同作用等)而单独形成了一个子研究领域。本文通过阅读以下论文,对GNN可解释性方法有一个大体的梳理和把握。针对网络安全领域可解释性AI相关工作的梳理见《网络安全领域的可解释性AI》。
对解释的期待 解释是否能够包含每个推理的流程 每个推理的信息 对于扰动的鲁棒性 edge的存在是非连续的,没办法通过梯度的方式解决 graph本身就是难以理解的 局部是指对于标签当前graph而言哪个attr比较重要 全局对于模型什么样的graph会被分为哪一类 gnn本身的结构是怎么样的,模型的featuremap posthoc解释整个模型 attr...
GNNExplainer 是一种与模型无关的基于扰动的方法,可以为任何基于图的机器学习任务上的任何基于 GNN 的模型的预测提供可解释的报告。 GNNExplainer 学习边和节点特征的软掩码,然后通过掩码的优化来解释预测。 GNNExplainer 会获取输入图并识别紧凑的子图结构和在预测中起关键作用的一小部分节点特征。 GNNExplainer通过生成...
GNN 会做出特定的预测。随着图神经网络的普及,人们对解释其预测的兴趣也越来越大。
当前GNN 可解释性问题 在撰写本文时,对 GNN 解释方法有贡献的论文屈指可数。尽管如此,这仍然是一个非常重要的主题,最近变得越来越流行。 GNN 的流行要比标准神经网络晚得多。虽然这一领域有很多有趣的研究,但还不是很成熟。GNN 的库和工具目前仍然处于“实验阶段”,我们现在真正需要的是,让更多的人使用它来发现...
得益于强大的建模和分析能力,图神经网络(GNN)在社交网络分析、推荐系统、知识图谱、文本分析、等诸多领域得到了广泛的应用,目前已成为了人工智能领域的热门研究方向。 在今年的各大顶会获奖论文中,图神经网络相关的论文数量也是意料之中的可观,所以学姐建议有想法发paper的同学抓紧时间。
7️⃣ 基于决策树的方法:将GNN与决策树结合,构建可解释性更强的混合模型。8️⃣ 基于模型蒸馏方法:通过蒸馏技术,将复杂模型转化为更易于理解的简单模型。9️⃣ 基于集成学习的方法:通过集成多个GNN模型,提高整体可解释性的同时保持性能。🔍这些创新思路为GNN的可解释性研究提供了新的方向,助力我们更好...
《Explaining the Explainers in GNNs: a Comparative Study》论文通过实验对比了多种方法在不同数据集及GNN模型上的表现。综上所述,GNN可解释性方法在识别重要子图、生成图数据、注入领域知识、实例级及模型级解释等方面均有发展,通过不同角度分类及评估指标衡量,为实际应用提供支持。
解释类型 GNNExplainer提供了针对单个节点、一类节点和整个图的解释。关键在于计算图,用于生成最小图。最小图学习包含边权重和特征权重,边权重决定边的重要性,特征权重判断特征对决策的重要性。实现与应用 使用GNNExplainer时,需要提供节点索引、完整特征矩阵和边列表。核心功能在于学习边权重与特征权重,...