万本电子书0元读

万本电子书0元读

顶部广告

可解释机器学习:黑盒模型可解释性理解指南(第2版)电子书

售       价:¥

纸质售价:¥93.20购买纸书

2人正在读 | 0人评论 6.3

作       者:(德)Christoph Molnar (克里斯托夫·莫尔纳)

出  版  社:电子工业出版社

出版时间:2024-10-01

字       数:19.4万

所属分类: 科技 > 计算机/网络 > 多媒体/数据通信

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
机器学习虽然在改产品性能、产品流程和推研究方面有很大的潜力,但仍面临一大障碍——计算机无法解释其预测结果。因此,本书旨在阐明如何使机器学习模型及其决策具有可解释性。本书探索了可解释性的概念,介绍了许多简单的可解释模型,包括决策树、决策规则和线性回归等。本书的重是模型不可知方法,用于解释黑盒模型(如特征重要性和累积局部效应),以及用Shapley 值和局部代理模型解释单个实例预测。此外,本书介绍了深度神经网络的可解释性方法。本书深解释并批判性地讨论所有的可解释方法,如它们在黑盒下的运作机制,各自的优缺,如何解释它们的输出结果。本书将帮助读者选择并正确应用最适用于特定机器学习项目的解释方法。本书适合机器学习从业者、数据科学家、统计学家及任何对机器学习模型可解释性感兴趣的读者阅读。<br/>【作者】<br/>Christoph Molnar,可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning 受到业界高度关注。 郭涛,主要从事人工智能、智能计算、概率与统计学、现代软件工程等前沿交叉研究。出版多部译作,包括《深度强化学习图解》《机器学习图解》《集成学习实战》。<br/>
目录展开

前折页

内容简介

作者序

第2版译者序

第1版译者序

第1章 引言

1.1 故事时间

1.1.1 闪电不会击中两次

1.1.2 信任跌落

1.1.3 费米回形针

1.2 什么是机器学习

1.3 术语

第2章 可解释性

2.1 可解释性的重要性

2.2 可解释性方法分类

2.3 可解释性的范围

2.3.1 算法透明度

2.3.2 全局、整体模型的可解释性

2.3.3 模型层面的全局模型可解释性

2.3.4 单个预测的局部可解释性

2.3.5 一组预测的局部可解释性

2.4 评估可解释性

2.5 解释的特性

2.6 人性化的解释

2.6.1 什么是解释

2.6.2 什么是好的解释

第3章 数据集

3.1 自行车租赁(回归)

3.2 YouTube垃圾评论(文本分类)

3.3 宫颈癌风险因素(分类)

第4章 可解释模型

4.1 线性回归

4.1.1 解释

4.1.2 示例

4.1.3 可视化解释

4.1.4 解释单个预测

4.1.5 分类特征编码

4.1.6 线性模型能创造出好的解释吗

4.1.7 稀疏线性模型

4.1.8 优点

4.1.9 缺点

4.2 逻辑回归

4.2.1 线性回归用于分类存在的问题

4.2.2 理论

4.2.3 解释

4.2.4 示例

4.2.5 优点和缺点

4.2.6 软件

4.3 广义线性模型、广义加性模型及其他

4.3.1 非高斯结果——广义线性模型

4.3.2 交互作用

4.3.3 非线性效应——广义加性模型

4.3.4 优点

4.3.5 缺点

4.3.6 软件

4.3.7 进一步扩展

4.4 决策树

4.4.1 解释

4.4.2 示例

4.4.3 优点

4.4.4 缺点

4.4.5 软件

4.5 决策规则

4.5.1 从单一特征学习规则

4.5.2 顺序覆盖

4.5.3 贝叶斯规则列表

4.5.4 优点

4.5.5 缺点

4.5.6 软件和替代方案

4.6 RuleFit

4.6.1 解释和示例

4.6.2 理论

4.6.3 优点

4.6.4 缺点

4.6.5 软件和替代方案

4.7 其他可解释模型

4.7.1 朴素贝叶斯分类器

4.7.2 k近邻算法

第5章 模型不可知方法

第6章 基于样本的解释

第7章 全局模型不可知方法

7.1 部分依赖图

7.1.1 基于部分依赖图的特征重要性

7.1.2 示例

7.1.3 优点

7.1.4 缺点

7.1.5 软件和替代方案

7.2 累积局部效应图

7.2.1 动机和直觉

7.2.2 理论

7.2.3 估算

7.2.4 示例

7.2.5 优点

7.2.6 缺点

7.2.7 软件和替代方案

7.3 特征交互作用

7.3.1 特征交互概念

7.3.2 理论:弗里德曼的H统计量

7.3.3 示例

7.3.4 优点

7.3.5 缺点

7.3.6 实现

7.3.7 替代方案

7.4 函数分解

7.4.1 如何不计算分量I

7.4.2 函数分解

7.4.3 如何不计算分量II

7.4.4 函数ANOVA

7.4.5 依赖特征的广义函数ANOVA

7.4.6 累积局部效应图

7.4.7 统计回归模型

7.4.8 锦上添花:部分依赖图

7.4.9 优点

7.4.10 缺点

7.5 置换特征重要性

7.5.1 理论

7.5.2 应该在训练数据还是测试数据上计算重要性

7.5.3 示例和解释

7.5.4 优点

7.5.5 缺点

7.5.6 替代方案

7.5.7 软件

7.6 全局代理模型

7.6.1 理论

7.6.2 示例

7.6.3 优点

7.6.4 缺点

7.6.5 软件

7.7 原型和批评

7.7.1 理论

7.7.2 示例

7.7.3 优点

7.7.4 缺点

7.7.5 软件和替代方案

第8章 局部模型不可知方法

8.1 个体条件期望

8.1.1 示例

8.1.2 优点

8.1.3 缺点

8.1.4 软件和替代方案

8.2 局部代理模型

8.2.1 表格数据的局部代理模型

8.2.2 文本的局部代理模型

8.2.3 图像的局部代理模型1

8.2.4 优点

8.2.5 缺点

8.3 反事实解释

8.3.1 生成反事实解释

8.3.2 示例

8.3.3 优点

8.3.4 缺点

8.3.5 软件和替代方案

8.4 范围规则(锚点)

8.4.1 寻找锚点

8.4.2 复杂性和运行时间

8.4.3 表格数据示例

8.4.4 优点

8.4.5 缺点

8.4.6 软件和替代方案

8.5 Shapley值

8.5.1 总体思路

8.5.2 示例和解释

8.5.3 Shapley值详解

8.5.4 优点

8.5.5 缺点

8.5.6 软件和替代方案

8.6 SHAP

8.6.1 定义

8.6.2 KernelSHAP

8.6.3 TreeSHAP

8.6.4 示例

8.6.5 SHAP特征重要性

8.6.6 SHAP概要图

8.6.7 SHAP依赖关系图

8.6.8 SHAP交互作用值

8.6.9 聚类Shapley值

8.6.10 优点

8.6.11 缺点

8.6.12 软件

第9章 神经网络可解释性

9.1 学习特征

9.1.1 特征可视化

9.1.2 网络剖析

9.1.3 优点

9.1.4 缺点

9.1.5 软件和其他实现

9.2 像素归因

9.2.1 Vanilla梯度法(显著性图)

9.2.2 DeconvNet

9.2.3 Grad-CAM

9.2.4 Guided Grad-CAM

9.2.5 SmoothGrad

9.2.6 示例

9.2.7 优点

9.2.8 缺点

9.2.9 软件

9.3 检测概念

9.3.1 TCAV:使用概念激活向量进行测试

9.3.2 示例

9.3.3 优点

9.3.4 缺点

9.3.5 其他基于概念的方法

9.3.6 软件

9.4 对抗性示例

9.4.1 方法和示例

9.4.2 网络安全视角

9.5 有影响实例

9.5.1 删除诊断

9.5.2 影响函数

9.5.3 识别有影响实例的优点

9.5.4 识别有影响实例的缺点

9.5.5 软件和替代方案

第10章 透视水晶球

10.1 机器学习的未来

10.2 可解释性的未来

参考文献

致谢

后折页

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部