描述
开 本: 16开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787111762768
(1)作者背景资深:4位作者都是博士,现在或曾在国内微软、百度等大厂从事AI相关技术的研究与开发。
(2)作者经验丰富:4位作者在大厂工作多年,在自然语言处理、推荐搜索、对话系统等领域积累了丰富的项目经验。
(3)工程化视角:本书从工程化的角度讲解了大语言模型的核心技术、训练方法、在各领域的应用,展示了这一系统性工程的复杂性与实现路径。
(4)从入门到进阶:从大模型的原理和基础构件入手,到大模型的分布式训练和各场景应用,再到大模型的优化,零基础入门,成为大模型高手。
(5)从当下到前沿:既详细讲解了当下主流的大模型技术和实操方法,又梳理和盘点了大模型前沿技术理论和实战应用。
这是一本从工程化角度讲解大语言模型的核心技术、构建方法与前沿应用的著作。首先从语言模型的原理和大模型的基础构件入手,详细梳理了大模型技术的发展脉络,深入探讨了大模型预训练与对齐的方法;然后阐明了大模型训练中的算法设计、数据处理和分布式训练的核心原理,展示了这一系统性工程的复杂性与实现路径。
除了基座模型的训练方案,本书还涵盖了大模型在各领域的落地应用方法,包括低参数量微调、知识融合、工具使用和自主智能体等,展示了大模型在提高生产力和创造性任务中的卓越性能和创新潜力。此外,书中进一步介绍了大模型优化的高级话题和前沿技术,如模型小型化、推理能力和多模态大模型等。最后,本书讨论了大模型的局限性与安全性问题,展望了未来的发展方向,为读者提供了全面的理解与前瞻性的视角。
无论是人工智能领域的研究员、工程师,还是对前沿技术充满好奇的读者,本书都将是您了解和掌握大模型技术的必 备指南。
CONTENTS
目 录
前言
第1章 语言模型简介 1
1.1 传统语言模型 2
1.1.1 n-gram语言模型 2
1.1.2 神经网络语言模型 5
1.1.3 传统语言模型的应用 7
1.2 大语言模型 8
1.2.1 大模型的发展历程 9
1.2.2 训练大模型的挑战 11
1.2.3 大模型的应用 12
1.3 大模型实例 14
1.3.1 基座模型实例 15
1.3.2 对齐模型实例 16
1.4 小结 18
第2章 大模型网络结构 19
2.1 Seq2Seq结构 19
2.2 注意力机制 21
2.3 Transformer架构 22
2.3.1 Transformer模型结构 23
2.3.2 编码器单元 24
2.3.3 解码器单元 26
2.3.4 位置编码 27
2.4 词元化 29
2.4.1 BPE 30
2.4.2 字节级BPE 32
2.4.3 WordPiece 32
2.4.4 Unigram语言模型 33
2.4.5 SentencePiece 34
2.5 解码策略 34
2.5.1 贪心搜索 35
2.5.2 集束搜索 35
2.5.3 Top-k采样 36
2.5.4 核采样 38
2.5.5 温度采样 39
2.6 小结 41
第3章 大模型学习范式的演进 43
3.1 预训练与微调的原理和典型模型 44
3.1.1 预训练与微调 44
3.1.2 三个典型模型 46
3.2 多任务学习的原理和典型模型 51
3.2.1 多任务学习 52
3.2.2 两个典型模型 53
3.3 大规模模型的能力 55
3.3.1 少样本学习 55
3.3.2 提示学习 57
3.3.3 上下文学习 59
3.4 小结 61
第4章 大模型对齐训练 63
4.1 对齐 63
4.1.1 对齐的定义 63
4.1.2 对齐的衡量指标 65
4.2 基于人类反馈的强化学习 67
4.2.1 监督微调的原理 68
4.2.2 训练奖励模型的原理 71
4.2.3 强化学习的原理 73
4.3 基于AI反馈的强化学习 77
4.4 直接偏好优化 79
4.5 超级对齐 80
4.6 小结 80
第5章 大模型评测与数据集 83
5.1 大模型评测方法 83
5.1.1 人工评测 84
5.1.2 自动评测 85
5.2 大模型评测指标 86
5.2.1 准确率、精确率、召回率与F1分数 86
5.2.2 困惑度 88
5.2.3 BLEU与ROUGE 90
5.2.4 pass@k 92
5.3 大模型能力评测基准 92
5.3.1 MMLU 93
5.3.2 GSM8K 94
5.3.3 C-Eval 95
5.3.4 HumanEval 97
5.4 数据集及预处理方法 98
5.4.1 预训练数据集 98
5.4.2 指令微调数据集 102
5.4.3 人工反馈数据集 105
5.4.4 数据预处理方法 106
5.5 小结 107
第6章 分布式训练与内存优化 109
6.1 大模型扩展法则 110
6.2 分布式训练策略 112
6.2.1 数据并行 113
6.2.2 张量并行 113
6.2.3 流水线并行 114
6.2.4 混合并行 116
6.3 大模型训练中的不稳定现象 116
6.4 分布式训练集群架构 117
6.4.1 中心化架构:参数服务器 118
6.4.2 去中心化架构:集合
通信 119
6.5 内存优化策略 127
6.5.1 混合精度训练 127
6.5.2 梯度检查点 131
6.5.3 梯度累积 132
6.5.4 FlashAttention 134
6.6 分布式训练框架 135
6.7 小结 137
第7章 大模型的垂直场景适配方案 139
7.1 从零开始训练新模型 140
7.2 全量参数微调 140
7.3 低参数量微调 142
7.3.1 适配器方法 142
7.3.2 提示词微调 144
7.3.3 前缀微调 146
7.3.4 LoRA 147
7.4 超低参数量微调的探索 149
7.5 小结 150
第8章 知识融合与工具使用 151
8.1 知识融合 152
8.1.1 检索增强生成 152
8.1.2 解码器融合 154
8.1.3 提示融合 156
8.2 工具使用 157
8.2.1 WebGPT 157
8.2.2 LaMDA 162
8.2.3 Toolformer 164
8.3 自主智能体 170
8.3.1 自主智能体的组件 172
8.3.2 自主智能体的工作流程 173
8.4 小结 174
第9章 大模型的进阶优化 175
9.1 模型小型化 175
9.1.1 模型量化 176
9.1.2 知识蒸馏 179
9.1.3 参数剪枝 182
9.2 推理能力及其延伸 184
9.2.1 思维链 185
9.2.2 零样本思维链 188
9.2.3 最少到最多提示 190
9.2.4 ReAct:推理能力 行动能力 191
9.3 代码生成 193
9.3.1 Codex 194
9.3.2 代码生成的要素 197
9.4 多模态大模型 198
9.4.1 BEiT-3 199
9.4.2 CLIP 202
9.4.3 Flamingo 204
9.4.4 MiniGPT-4 207
9.5 高质量数据的作用与构建 208
9.5.1 LIMA 209
9.5.2 教科书级数据 212
9.6 模型能力“涌现”的原因 216
9.7 小结 220
第10 章 大模型的局限性与未来发展方向221
10.1 大模型的局限性222
10.1.1 事实性错误222
10.1.2 理解和推理缺陷223
10.1.3 知识更新问题224
10.1.4 安全性问题224
10.1.5 计算资源限制225
10.2 大模型的未来发展方向226
10.2.1 更强的记忆:从通用到个性化226
10.2.2 装上“手脚”:赋予模型使用工具的能力228
10.2.3 多模态交互:穿越文本的边界229
10.3 小结230
参考文献231
评论
还没有评论。