InterpretML 是一个开源的Python库,用于解释机器学习模型的预测结果。它提供了多种解释技术,帮助用户理解模型的内部工作机制,并识别出影响模型预测的关键特征。 InterpretML 的主要功能: •全局解释: 解释模型在整个数据集上的行为,例如特征重要性、部分依赖图等。 •局部解释: 解释模型对单个样本的预测结果,例如 LIM...
InterpretML 的⽬标是以最准确的形式为世界提供 可解释性算法。能与其它⽅法很好协同。利⽤开源⽣态系统,不重复发明轮⼦。InterpretML 与 Jupyter Notebook 和 scikit-learn 等常⽤项⽬⾼度兼容,并且其构建过程也使⽤了很多库,⽐如 plotly、lime、shap 和 SALib。