描述
开 本: 16开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787511478009
编辑推荐
本书结合编者多年从事人工智能科研与教学的经验,强调内容的先进性、系统性与实用性,每章均配备了理论授课视频、PPT、实践辅导视频、代码与习题等。
内容简介
本书主要聚焦人工智能最新理论与实践,以经典人工神经网络与支持向量机为基础,以深度学习、强化学习与深度强化学习为核心,以深入浅出、循循善诱与娓娓道来的风格,将深奥的人工智能知识进行了清晰的诠释,使读者能够更好地理解和掌握知识难点,适于教与学。为了提高读者学习效果,每章不仅配备理论讲解视频与PPT,而且对重点算法结合应用实例配置了程序辅导视频与代码;另外,每章后均附精心设计的习题。本书结合编者多年从事人工智能科研与教学的经验,强调内容的先进性、系统性与实用性,注重学生分析问题能力与实践创新能力的培养。
目 录
绪论…………………….(1)
第1章经典人工神经网络…………………….(4)
1.1生物神经网络基本机理…………………….(4)
1.1.1生物神经元结构…………………….(4)
1.1.2生物神经元信息的传递与接收…………………….(5)
1.1.3生物神经元信息的整合…………………….(6)
1.1.4生物神经网络…………………….(8)
1.2人工神经元…………………….(8)
1.2.1人工神经元的符号描述…………………….(8)
1.2.2人工神经元的数学模型…………………….(9)
1.2.3人工神经元的激活函数…………………….(10)
1.3单层感知机…………………….(14)
1.3.1单层感知机的表达…………………….(14)
1.3.2单层感知机的训练算法及实例…………………….(17)
1.3.3单层感知机的局限性…………………….(19)
1.4多层感知机…………………….(20)
1.4.1多层感知机的功能…………………….(20)
1.4.2多层感知机的数学表达…………………….(24)
1.4.3多层感知机的网络误差…………………….(25)
1.5BP人工神经网络…………………….(25)
1.5.1误差反传训练算法…………………….(26)
1.5.2梯度下降法…………………….(29)
1.5.3BP人工神经网络设计方法…………………….(30)
1.5.4BP人工神经网络的局限性及改进…………………….(31)
本章小结…………………….(34)
实践1编程环境安装…………………….(35)
实践2利用感知机实现Mnist手写数字分类…………………….(35)
习题…………………….(35)
参考文献…………………….(36)
第2章支持向量机…………………….(37)
2.1支持向量机基本思想…………………….(37)
2.1.1从感知机到支持向量机…………………….(37)
2.1.2SVM解决问题思路…………………….(38)
2.1.3SVM的发展过程…………………….(41)
2.2线性硬可分支持向量机…………………….(41)
2.2.1线性可分与分类间隔…………………….(41)
2.2.2几何间隔…………………….(42)
2.2.3硬间隔SVM与间隔最大化…………………….(43)
2.2.4硬间隔SVM的对偶算法…………………….(44)
2.3线性软可分支持向量机…………………….(48)
2.3.1软间隔SVM与软间隔最大化…………………….(48)
2.3.2软间隔SVM的对偶问题…………………….(49)
2.4非线性支持向量机…………………….(50)
2.4.1非线性模型与升维…………………….(50)
2.4.2非线性SVM的对偶问题…………………….(51)
2.4.3核函数…………………….(51)
2.5SMO算法…………………….(53)
2.5.1SMO主要框架…………………….(54)
2.5.2变量的启发式选择…………………….(58)
本章小结…………………….(59)
实践3利用非线性支持向量机实现IRIS鸢尾花数据分类…………………….(59)
习题…………………….(60)
参考文献…………………….(60)
第3章卷积神经网络…………………….(61)
3.1卷积神经网络思想…………………….(61)
3.1.1卷积神经网络解决问题的思路…………………….(61)
3.1.2卷积神经网络的发展概述…………………….(63)
3.2卷积神经网络结构…………………….(64)
3.2.1输入层…………………….(65)
3.2.2卷积层…………………….(66)
3.2.3池化层…………………….(72)
3.2.4全连接层…………………….(73)
3.3典型结构…………………….(75)
3.3.1LeNet…………………….(75)
3.3.2AlexNet…………………….(75)
3.3.3ZFNet…………………….(78)
3.3.4GoogLeNet…………………….(80)
3.3.5ResNet…………………….(83)
本章小结…………………….(85)
实践4利用卷积神经网络实现Mnist手写数字分类…………………….(85)
习题…………………….(85)
参考文献…………………….(86)
第4章循环神经网络…………………….(87)
4.1经典循环神经网络…………………….(87)
4.1.1经典循环神经网络基本结构…………………….(87)
4.1.2几种典型的循环神经网络…………………….(91)
4.1.3RNN前向传播与反向传播…………………….(97)
4.2长短期记忆神经网络…………………….(101)
4.2.1LSTM门控结构…………………….(102)
4.2.2LSTM遗忘门…………………….(104)
4.2.3LSTM输入门…………………….(104)
4.2.4LSTM输出门…………………….(105)
4.2.5LSTM结构的理解…………………….(106)
本章小结…………………….(108)
实践5利用长短时记忆网络实现股票价格预测…………………….(108)
习题…………………….(109)
参考文献…………………….(110)
第5章Transformer模型…………………….(111)
5.1总体思想与框架结构…………………….(111)
5.2输入信息编码方式…………………….(113)
5.2.1词嵌入矩阵的获取…………………….(114)
5.2.2位置嵌入矩阵的获取…………………….(115)
5.3自注意力机制…………………….(116)
5.3.1自注意力机制的基本思想…………………….(116)
5.3.2自注意力机制的计算步骤…………………….(119)
5.4编码器信息编码机制与整体结构…………………….(121)
5.4.1编码器中的多头注意力机制…………………….(121)
5.4.2编码器中的前馈网络层…………………….(122)
5.4.3编码器中的叠加和归一层…………………….(123)
5.4.4编码器结构总览…………………….(123)
5.5解码器信息编码机制与整体结构…………………….(124)
5.5.1解码器的掩码多头注意力层…………………….(126)
5.5.2解码器的多头注意力层…………………….(128)
5.5.3解码器的前馈网络层与叠加和归一层…………………….(130)
5.5.4解码器的线性层和Softmax层…………………….(131)
5.5.5解码器结构总览…………………….(132)
本章小结…………………….(133)
实践6利用Transformer实现电影评论数据情感分析…………………….(133)
习题…………………….(133)
参考文献…………………….(134)
第6章强化学习…………………….(135)
6.1强化学习基本思想…………………….(135)
6.1.1强化学习的拟人思路…………………….(135)
6.1.2强化学习的典型特征…………………….(136)
6.1.3强化学习的发展思路…………………….(137)
6.2强化学习的概念体系…………………….(137)
6.2.1随机变量与期望…………………….(137)
6.2.2智能体-环境交互…………………….(139)
6.2.3动态特性函数…………………….(143)
6.2.4目标与回报…………………….(145)
6.2.5策略和价值函数…………………….(147)
6.2.6最优策略与最优价值函数…………………….(151)
6.3模型强化学习方法…………………….(153)
6.3.1策略评估…………………….(154)
6.3.2策略改进…………………….(158)
6.3.3策略迭代…………………….(159)
6.3.4价值迭代…………………….(160)
6.3.5广义策略迭代…………………….(161)
6.4无模型强化学习方法…………………….(162)
6.4.1蒙特卡洛强化学习方法…………………….(162)
6.4.2时序差分强化学习方法…………………….(171)
6.5强化学习不同方法的关系…………………….(176)
6.5.1模型与无模型强化学习方法的关系…………………….(176)
6.5.2无模型强化学习方法的统一性…………………….(177)
6.5.3各种方法的维度关系…………………….(178)
本章小结…………………….(179)
实践7利用Q-Learning帮助智能体在简单6格环境中达成目标…………………….(180)
习题…………………….(180)
参考文献…………………….(180)
第7章深度强化学习…………………….(182)
7.1深度强化学习基本思想…………………….(182)
7.1.1强化学习面临的问题…………………….(182)
7.1.2强化学习与深度学习结合…………………….(183)
7.2大型状态空间DQN深度强化学习…………………….(183)
7.2.1DQN深度强化学习基本框架…………………….(184)
7.2.2DQN基本框架结构的学习过程…………………….(185)
7.2.3DQN基本框架结构存在的弊端…………………….(186)
7.2.4DQN基本框架的改进方法…………………….(187)
7.2.5改进版DQN的架构…………………….(189)
7.3随机策略深度强化学习…………………….(190)
7.3.1策略学习基本思路…………………….(190)
7.3.2策略学习的目标函数…………………….(191)
7.3.3策略梯度定理…………………….(192)
7.3.4Reinforce方法…………………….(192)
7.3.5Actor-critic方法…………………….(193)
7.3.6带基线的策略学习方法…………………….(195)
7.3.7带基线的Reinforce方法…………………….(196)
7.3.8Advantage
Actor-critic方法…………………….(196)
7.4连续动作空间深度强化学习…………………….(198)
7.4.1深度确定性策略梯度方法…………………….(198)
7.4.2随机高斯策略方法…………………….(202)
7.5深度强化学习各种方法之间的关联…………………….(204)
7.5.1价值评估是4种方法的共同基础…………………….(204)
7.5.2策略梯度的Actor-critic范式…………………….(204)
7.5.3目标网络的通用性…………………….(205)
7.6近端策略优化算法…………………….(205)
7.6.1传统策略梯度训练面临的问题…………………….(205)
7.6.2TRPO算法的贡献…………………….(206)
7.6.3PPO算法对TRPO算法的改进…………………….(207)
7.6.4PPO算法流程…………………….(207)
本章小结…………………….(210)
实践8利用DQN将着陆器成功降落在月球表面…………………….(211)
实践9利用PPO-Clip算法帮助小车平衡杆系统保持稳定…………………….(211)
习题…………………….(212)
参考文献…………………….(212)
评论
还没有评论。