为了实现该归纳偏好,文章提出了一个可解释的异质相互作用图神经网络(EHIGN)用于PLA预测。EHIGN的核心设计包括如下四个方面: 将复合物建模为异质图,包括配体内部、蛋白质内部、配体与蛋白质间及蛋白质与配体间四种类型的原子间相互作用,如图3(a)所示。 EHIGN使用异质相互作用图神经网络(HIGN)从四种类型的原子间相互...
GNN 需要可解释性解释 GNN 预测的挑战不同的 GNN 解释方GNNExplainer的直观解释使用 GNNExplainer 解释节点分类和图分类的实现 图卷积神经网络 (GCN)、GraphSAGE 和图注意网络 (GAT) 等 GNN 通过沿输入图的边缘递归传递神经消息,将节点特征信息与图结构相结合。同时结合图结构和特征信息会导致复杂的模型; 因此,解...
定量评估XAI方法在图神经网络中的可解释性 为了定量评估XAI方法在图神经网络中的可解释性,研究人员在五个基准数据集上评估了六种常用的可解释性方法与四种图神经网络的组合,如图2所示。当比较不同图神经网络的可解释性能时,CMPNN得到了最高的Attribution-AUROC值(0.671), 而 GraphNET 和GAT分别排名第2和第3。当...
在该项研究中,研究人员提出了一种用于fMRI分析的可解释图神经网络BrainGNN。BrainGNN将神经图像构建的图形作为输入,然后输出预测结果和解释结果。研究者将BrainGNN应用于生物点和HCP fMRI数据集发现由于其内置的可解释性,BrainGNN不仅在预测方面比其他方法表现得更好,而且还能检测出与预测相关的显著大脑区域,并发现大脑社区...
来自悉尼科技大学最新《可解释图神经网络研究》综述,重点研究可解释图神经网络,并基于可解释方法对其进行分类。 图神经网络(GNNs)已经证明了对图数据的预测性能的显著提高。与此同时,这些模型做出的预测往往难以解释。在这方面,已经有很多人从GNNExplainer、XGNN和PGExplainer等角度来解释这些模型的预测机制。虽然这些工作...
来自悉尼科技大学最新《可解释图神经网络研究》综述,重点研究可解释图神经网络,并基于可解释方法对其进行分类。 图神经网络(GNNs)已经证明了对图数据的预测性能的显著提高。与此同时,这些模型做出的预测往往难以解释。在这方面,已经有很多人...
GpKa是指一种基于图神经网络的pKa预测模型。为了进一步评价基于电子效应的数据增强方法的优势,作者将其作为基准进行比较。GpKa的网络架构与EEGpKa的下游pKa预测网络架构一样,区别在于前者训练时未采用数据增强方法。此外,为了研究训练集的大小对预测性能的影响,作者从原始训练集中分别选择了20%、33%和100%对模型进行...
揭秘可信图神经网络:隐私、鲁棒性、公平与可解释性 引言 在当今大数据与人工智能蓬勃发展的时代,图神经网络(Graph Neural Networks, GNNs)作为一种专门处理图结构数据的深度学习模型,正逐步渗透到我们生活的方方面面。从社交网络分析到生物信息学,从推荐系统到金融风险评估,GNNs以其独特的优势在多个领域发挥着重要作用。
可解释性是深度学习中的一个大课题,因为它可以实现更可靠和可信的预测。 由于图结构的不规则性,现有的解释方法难以适用于图神经网络。 Explainability增加可靠性 最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等“黑盒子”模型产生更可靠和可信的预测。LIME论文[2]中给出的一个很好...
可解释人工智能又向前迈进了一步,以及为什么现有的解释方法难以适用于gnn 可解释性是深度学习中的一个大课题,因为它可以实现更可靠和可信的预测。 由于图结构的不规则性,现有的解释方法难以适用于图神经网络。 Explainability增加可靠性 最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等...