为你推荐
前折页
内容简介
作者序
第2版译者序
第1版译者序
第1章 引言
1.1 故事时间
1.1.1 闪电不会击中两次
1.1.2 信任跌落
1.1.3 费米回形针
1.2 什么是机器学习
1.3 术语
第2章 可解释性
2.1 可解释性的重要性
2.2 可解释性方法分类
2.3 可解释性的范围
2.3.1 算法透明度
2.3.2 全局、整体模型的可解释性
2.3.3 模型层面的全局模型可解释性
2.3.4 单个预测的局部可解释性
2.3.5 一组预测的局部可解释性
2.4 评估可解释性
2.5 解释的特性
2.6 人性化的解释
2.6.1 什么是解释
2.6.2 什么是好的解释
第3章 数据集
3.1 自行车租赁(回归)
3.2 YouTube垃圾评论(文本分类)
3.3 宫颈癌风险因素(分类)
第4章 可解释模型
4.1 线性回归
4.1.1 解释
4.1.2 示例
4.1.3 可视化解释
4.1.4 解释单个预测
4.1.5 分类特征编码
4.1.6 线性模型能创造出好的解释吗
4.1.7 稀疏线性模型
4.1.8 优点
4.1.9 缺点
4.2 逻辑回归
4.2.1 线性回归用于分类存在的问题
4.2.2 理论
4.2.3 解释
4.2.4 示例
4.2.5 优点和缺点
4.2.6 软件
4.3 广义线性模型、广义加性模型及其他
4.3.1 非高斯结果——广义线性模型
4.3.2 交互作用
4.3.3 非线性效应——广义加性模型
4.3.4 优点
4.3.5 缺点
4.3.6 软件
4.3.7 进一步扩展
4.4 决策树
4.4.1 解释
4.4.2 示例
4.4.3 优点
4.4.4 缺点
4.4.5 软件
4.5 决策规则
4.5.1 从单一特征学习规则
4.5.2 顺序覆盖
4.5.3 贝叶斯规则列表
4.5.4 优点
4.5.5 缺点
4.5.6 软件和替代方案
4.6 RuleFit
4.6.1 解释和示例
4.6.2 理论
4.6.3 优点
4.6.4 缺点
4.6.5 软件和替代方案
4.7 其他可解释模型
4.7.1 朴素贝叶斯分类器
4.7.2 k近邻算法
第5章 模型不可知方法
第6章 基于样本的解释
第7章 全局模型不可知方法
7.1 部分依赖图
7.1.1 基于部分依赖图的特征重要性
7.1.2 示例
7.1.3 优点
7.1.4 缺点
7.1.5 软件和替代方案
7.2 累积局部效应图
7.2.1 动机和直觉
7.2.2 理论
7.2.3 估算
7.2.4 示例
7.2.5 优点
7.2.6 缺点
7.2.7 软件和替代方案
7.3 特征交互作用
7.3.1 特征交互概念
7.3.2 理论:弗里德曼的H统计量
7.3.3 示例
7.3.4 优点
7.3.5 缺点
7.3.6 实现
7.3.7 替代方案
7.4 函数分解
7.4.1 如何不计算分量I
7.4.2 函数分解
7.4.3 如何不计算分量II
7.4.4 函数ANOVA
7.4.5 依赖特征的广义函数ANOVA
7.4.6 累积局部效应图
7.4.7 统计回归模型
7.4.8 锦上添花:部分依赖图
7.4.9 优点
7.4.10 缺点
7.5 置换特征重要性
7.5.1 理论
7.5.2 应该在训练数据还是测试数据上计算重要性
7.5.3 示例和解释
7.5.4 优点
7.5.5 缺点
7.5.6 替代方案
7.5.7 软件
7.6 全局代理模型
7.6.1 理论
7.6.2 示例
7.6.3 优点
7.6.4 缺点
7.6.5 软件
7.7 原型和批评
7.7.1 理论
7.7.2 示例
7.7.3 优点
7.7.4 缺点
7.7.5 软件和替代方案
第8章 局部模型不可知方法
8.1 个体条件期望
8.1.1 示例
8.1.2 优点
8.1.3 缺点
8.1.4 软件和替代方案
8.2 局部代理模型
8.2.1 表格数据的局部代理模型
8.2.2 文本的局部代理模型
8.2.3 图像的局部代理模型1
8.2.4 优点
8.2.5 缺点
8.3 反事实解释
8.3.1 生成反事实解释
8.3.2 示例
8.3.3 优点
8.3.4 缺点
8.3.5 软件和替代方案
8.4 范围规则(锚点)
8.4.1 寻找锚点
8.4.2 复杂性和运行时间
8.4.3 表格数据示例
8.4.4 优点
8.4.5 缺点
8.4.6 软件和替代方案
8.5 Shapley值
8.5.1 总体思路
8.5.2 示例和解释
8.5.3 Shapley值详解
8.5.4 优点
8.5.5 缺点
8.5.6 软件和替代方案
8.6 SHAP
8.6.1 定义
8.6.2 KernelSHAP
8.6.3 TreeSHAP
8.6.4 示例
8.6.5 SHAP特征重要性
8.6.6 SHAP概要图
8.6.7 SHAP依赖关系图
8.6.8 SHAP交互作用值
8.6.9 聚类Shapley值
8.6.10 优点
8.6.11 缺点
8.6.12 软件
第9章 神经网络可解释性
9.1 学习特征
9.1.1 特征可视化
9.1.2 网络剖析
9.1.3 优点
9.1.4 缺点
9.1.5 软件和其他实现
9.2 像素归因
9.2.1 Vanilla梯度法(显著性图)
9.2.2 DeconvNet
9.2.3 Grad-CAM
9.2.4 Guided Grad-CAM
9.2.5 SmoothGrad
9.2.6 示例
9.2.7 优点
9.2.8 缺点
9.2.9 软件
9.3 检测概念
9.3.1 TCAV:使用概念激活向量进行测试
9.3.2 示例
9.3.3 优点
9.3.4 缺点
9.3.5 其他基于概念的方法
9.3.6 软件
9.4 对抗性示例
9.4.1 方法和示例
9.4.2 网络安全视角
9.5 有影响实例
9.5.1 删除诊断
9.5.2 影响函数
9.5.3 识别有影响实例的优点
9.5.4 识别有影响实例的缺点
9.5.5 软件和替代方案
第10章 透视水晶球
10.1 机器学习的未来
10.2 可解释性的未来
参考文献
致谢
后折页
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜