Grad-CAM是一种用于解释神经网络决策的可视化技术,它通过计算梯度信息来定位模型关注的重要区域。在PyTorch中实现Grad-CAM的过程相对简单,我们只需要在训练过程中记录梯度信息即可。具体实现可以参考PyTorch的官方文档和示例代码。通过Grad-CAM的可视化结果,我们可以直观地了解模型关注的区域和决策的依据,从而更好地理解和改...
它们的框架是通用的GNN模型解释框架,该框架在被解释节点的子图中局部学习非线性可解释模型。 梯度加权类激活映射(Gradient-weighted Class Activation Mapping, Grad-CAM)通过放松倒数第二层必须是卷积[18]的架构限制来改进CAM。通过将目标概...
具体的说,它首先计算了目标预测关于最终节点嵌入的梯度,然后,对这些梯度进行平均,获得每个特征映射的权重。相比于CAM,Grad-CAM不要求GNN模型在最终的FC层之前使用GAP层,同样,它也是基于启发式假设,不能解释节点分类的任务。 4.2基于扰动的方法(Perturbation-based Methods) 这种方法经常应用于图片领域的深度模型。潜在的...
具体的说,它首先计算了目标预测关于最终节点嵌入的梯度,然后,对这些梯度进行平均,获得每个特征映射的权重。相比于CAM,Grad-CAM不要求GNN模型在最终的FC层之前使用GAP层,同样,它也是基于启发式假设,不能解释节点分类的任务。 4.2基于扰动的方法(Perturbation-based Methods) 这种方法经常应用于图片领域的深度模型。潜在的...
将神经网络扩展到非欧几里得空间视为图卷积神经网络(GCNNs)。因此,我们可以将最初为CNN设计的常见解释方法,扩展到GCNN。我们发现XAI的多种方法都可以很容易地推广到GNN,如LRP [2], LIME [16], Grad-CAM[18]。表1总结了这些扩展。 分层关联传播(LRP)假设分类器可以分解为多个计算层,并将顶层的DNNs输出传播到...
将神经网络扩展到非欧几里得空间视为图卷积神经网络(GCNNs)。因此,我们可以将最初为CNN设计的常见解释方法,扩展到GCNN。我们发现XAI的多种方法都可以很容易地推广到GNN,如LRP [2], LIME [16], Grad-CAM[18]。表1总结了这些扩展。 分层关联传播(LRP)假设分类器可以分解为多个计算层,并将顶层的DNNs输出传播到...
Grad-CAM [50] 通过去除全局平均池化层的约束,将CAM扩展到一般图分类模型。同样,它也将最终的节点嵌入映射到输入空间来衡量节点重要性。但是,它没有使用全局平均池化输出和全连接层输出之间的权重,而是采用梯度作为权重来组合不同的特征图。与CAM相比,Grad-CAM不需要GNN模型在最终的全连接层之前采用全局平均池化层。
SA、Guided back propagation、CAM 和 Grad-CAM 是基于梯度/特征的可解释性方法的示例。基于扰动的方法监测不同输入扰动的输出变化变化。当保留重要的输入信息时,预测应该与原始预测相似。 GNN 可以通过使用不同的掩码生成算法来获得不同类型的掩码来进行特征重要性的判断,如 GNNExplainer、PGExplainer、ZORRO、GraphMa...
梯度加权类激活映射(Gradient-weighted Class Activation Mapping (Grad-CAM))[5] 激发反向传播 (Excitation Backpropagation)[5] 请注意,其中两篇论文 [4][5] 的作者并未提供这些方法的开源实现,因此目前尚无法使用它们。 模型无关方法:GNNExplainer 本文的代码仓库可以在这里找到。
Gradients/Feature-based 方法使用梯度或隐藏特征图来表示不同输入特征的重要性,其中梯度或特征值越高表示重要性越高。基于梯度/特征的可解释性方法广泛用于图像和文本任务。SA、Guided back propagation、CAM 和 Grad-CAM 是基于梯度/特征的可解释性方法的示例。