索信达控股等创作的计算机网络小说《可解释机器学习:模型、方法与实践》,已更新0章,最新章节:。本书是索信达金融AI实验室团队结合学术界前沿理论研究和金融行业应用经验打造的国内唯一的关于可解释机器学习应用方面的图书。书中将可解释机器学习技术的研究路线和应用成果进
通过数年的研究和实践,我们发现可解释机器学习恰好能够弥补当下人工智能技术在金融业应用中的不足。现今,深度学习、集成学习等复杂机器学习算法大行其道,银行里的营销模型、风控模型几乎全都顺应了这个大的技术潮流,虽然模型的精准性已有了较大的提升,但是业务应用风险却如影相随,模型的黑盒属性导致模型结果在业务应用上...
1.1 可解释机器学习研究背景 1.1.1 机器学习面临的挑战 近年来,随着大数据产业的蓬勃发展,围绕人工智能技术的机器学习算法也悄然发生着一些方向上的转变,越来越多行业的决策系统都开始青睐使用深度学习模型和集成学习模型。相比于传统的统计学模型、经典的机器学习模型,深度学习模型和集成学习模型可以更好地发挥大数据的优...
可解释机器学习:模型、方法与实践上QQ阅读APP,阅读体验更流畅 领看书特权 3.1.1 线性回归 1.模型定义 线性回归(Linear Regression)是研究变量之间定量关系的一种统计模型。给定多个变量X1,X2,…,Xd(Xj={x1j,x2j,…,xnj})和一个随机变量Y={y1,y2,…,yn},当它们满足如下关系时,我们称这个模型为线性回归...
可解释的机器学习(一):可解释性 机器学习是基于数据做出和改进预测或行为的一套方法。 方法:数据采集-将这新信息输入机器学习算法-将新数据输入模型。 黑盒模型是一个不揭示其内部机制的系统。在机器学习中,“黑盒模型”或称“黑匣子”描述了通过查看参数(例如深度神经网络的参数)却无法理解的模型。黑盒的对立面...
建模前,由于训练数据集通常会包含一些噪声和错误,对输入数据进行轻微的扰动,可能会导致机器学习模型得出显著不同的结果,从而影响模型结果的正确性和可解释性。在建模之前实现可解释性的目的在于,通过观察数据的特点和进行异常点排查,探索数据的情况,减少建模数据中的噪声,了解数据的分布情况,让建模的结果更准确且更具...
解释GNN 预测的挑战 不同的 GNN 解释方法 GNNExplainer的直观解释 使用GNNExplainer 解释节点分类和图分类的实现 GNNExplainer GNNExplainer 是一种与模型无关的基于扰动的方法,可以为任何基于图的机器学习任务上的任何基于 GNN 的模型的预测提供可解释的报告。GNNExplainer学习边和节点特征的软掩码,然后通过掩码的优化来...
2.1.3 可解释机器学习的研究方向可解释机器学习为模型的评价指标提供了新的角度,模型设计者在设计模型或优化模型时,应该从精度和解释性两个角度进行考虑。图2-3所示的是可解释机器学习中模型精度和模型可解释性的关系,由香港大学张爱军教授提出,在学术界广为流传,图2-3中的横轴代表模型的可解释性,越往正方向,代表...
建模后的可解释性主要侧重于对已建立好的复杂机器学习模型或深度学习模型的结果进行解释。倘若我们使用了黑盒模型进行建模,则可以通过对比敏感性分析、LIME、SHAP等一系列事后解析方法,用多个技术指标对影响模型结果的重要特征变量进行对比分析,以弥补单个模型事后解析方法对模型本身固有的依赖性的局限。另外,事后解析方法...
可解释机器学习:模型、方法与实践电子书 读者对象:金融机构、银行、金融科技公司等数据技术相关岗位从业者。人工智能、机器学习、数据挖掘相关技术岗位从业者。人工智能、机器学习、大数据相关专业的院校研究生、本科生。 1、涵盖了可解释机器学习前沿的研究成果及行业成功应用经验。 2、从算法层面系统地梳理了可解释...