描述
开 本: 32开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787302605690
《AI可解释性(Python语言版)》的出版恰逢其时,通过构建XAI的方法论体系,形成一组工具和方法,从而解释ML模型产生的复杂结果,帮助人们理解ML模型。本书从不可知论、依赖模型方法或内在可解释性构建了人工智能模型方法论,从全局可解释性和局部可解释性两个方面来回答AI“是什么”“为什么以及“如何做”等方面的问题。本书适合人工智能从业者、计算机科学家、统计科学家以及所有对机器学习模型可解释性感兴趣的读者阅读。
《AI可解释性(Python语言版)》全面介绍了AI可解释性的概念和可用技术,使机器学习系统更易于解释。书中提出的方法可以应用于几乎所有现有的机器学习模型:线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等等。 随着机器学习的发展,如今人们越来越多地使用人工智能体来执行以前由人类处理的关键任务(医疗、法律和金融等等)。虽然智能体的设计原则已被理解,但目前的大多数深度学习模型对人类理解而言是“不透明的”。《AI可解释性(Python语言版)》从理论和实践的角度填补了这个新兴主题文献方面的空白,使读者能够快速地使用可解释性AI的工具和代码。
第1章 前景 1
1.1 AI可解释性示例 2
1.1.1 学习阶段 3
1.1.2 知识发现 4
1.1.3 可靠性和鲁棒性 5
1.1.4 三个示例的启示 5
1.2 ML和XAI 6
1.2.1 ML分类法 8
1.2.2 常见误解 11
1.3 对AI可解释性的需求 12
1.4 可解释性与可理解性:是否为表达相同事物的不同词语 14
1.4.1 从物质世界到人类 15
1.4.2 相关性不是因果性 16
1.4.3 那么可理解性和可解释性的区别是什么 19
1.5 使ML系统具备可解释性 21
1.5.1 XAI工作流程 21
1.5.2 全局视觉 24
1.6 我们真的需要ML模型的可解释性吗 26
1.7 小结 28
参考文献 29
第2章 AI可解释性:需求、机遇和挑战 31
2.1 人工介入 32
2.1.1 半人马座XAI系统 32
2.1.2 从“人工介入”的角度评估XAI 35
2.2 如何使ML模型具备可解释性 37
2.2.1 内在可解释性 41
2.2.2 事后可解释性 44
2.2.3 全局或局部可解释性 46
2.3 解释的性质 49
2.4 小结 51
参考文献 52
第3章 内在可解释性模型 53
3.1 损失函数 54
3.2 线性回归 57
3.3 逻辑回归 67
3.4 决策树 78
3.5 K近邻算法(KNN) 87
3.6 小结 90
参考文献 91
第4章 XAI的模型不可知方法 93
4.1 全局可解释性:排序重要性与部分依赖图 94
4.1.1 根据排序重要性将特征排序 95
4.1.2 训练集中的排序重要性 99
4.1.3 部分依赖图 100
4.1.4 解释的性质 104
4.2 局部可解释性:XAI与Shapley加法解释 106
4.2.1 Shapley值:一种博弈论方法 107
4.2.2 SHAP的首次应用 108
4.2.3 解释的性质 111
4.3 KernelSHAP 111
4.3.1 Shapley公式 112
4.3.2 如何计算Shapley值 112
4.3.3 局部线性代理模型(LIME) 113
4.3.4 KernelSHAP是一种特殊的LIME 115
4.4 KernelSHAP与交互 116
4.4.1 纽约出租车情境 116
4.4.2 通过初步分析训练模型 116
4.4.3 用KernelShap使模型具备可解释性 120
4.4.4 特征交互 120
4.5 提升树的更快速SHAP 122
4.5.1 TreeShap的应用 122
4.5.2 提供解释 123
4.6 对SHAP的朴素评价 125
4.7 小结 127
参考文献 128
第5章 解释深度学习模型 129
5.1 不可知方法 130
5.1.1 对抗性特征 130
5.1.2 增强方法 132
5.1.3 将遮挡用作增强方法 133
5.1.4 将遮挡用作不可知XAI方法 134
5.2 神经网络(NN) 138
5.2.1 神经网络结构 138
5.2.2 为什么神经网络是深层网络(与浅层网络相对) 140
5.2.3 修正激活(和批量归一化) 142
5.2.4 显著图 143
5.3 打开深度网络 144
5.3.1 不同层解释 144
5.3.2 CAM(类激活图,Class Activation Maps)和Grad-CAM 144
5.3.3 DeepShap/ DeepLift 146
5.4 对显著性方法的评判 150
5.4.1 网络所见 150
5.4.2 可解释性逐层批量标准化 151
5.5 无监督方法 152
5.5.1 无监督降维 152
5.5.2 卷积滤波器降维 154
5.5.3 激活图集:如何区分炒锅与煎锅 156
5.6 小结 158
参考文献 159
第6章 用ML和XAI创造科学 161
6.1 数据时代的科学方法 162
6.2 因果关系阶梯 166
6.3 用ML和XAI发现物理概念 172
6.3.1 自动编码器的魔力 173
6.3.2 利用ML和XAI发现阻尼摆的物理特性 177
6.3.3 攀登因果关系阶梯 181
6.4 ML和XAI时代的科学 182
6.5 小结 184
参考文献 185
第7章 对抗性机器学习和可解释性 187
7.1 对抗性示例(AE)速成课程 188
7.2 使用对抗性示例运行XAI 201
7.3 用XAI抵御对抗性攻击 205
7.4 小结 208
参考文献 209
第8章 关于XAI可持续模型的建议 211
8.1 XAI“Fil Rouge” 212
8.2 XAI和GDPR 214
8.3 结语 220
8.4 小结 224
参考文献 224
附录 F.A.S.T. XAI认证 227
评论
还没有评论。