fbpx

[email protected]

购物车

 查看订单

  • 我的帐户
东东购 | EasternEast
  • 中文书店
    • 畅销排行榜
      • 小说 畅销榜
      • 童书 畅销榜
      • 外语畅销榜
      • 管理畅销榜
      • 法律畅销榜
      • 青春文学畅销榜
    • 热门分类
      • 社会小说
      • 成功/励志 畅销榜
      • 人物传记
      • 大陆原创
      • 绘本童书
      • 影视小说
    • 文学推荐
      • 文集
      • 戏剧
      • 纪实文学
      • 名家作品
      • 民间文学
      • 中国现当代随笔
    • 新书热卖榜
      • 小说 新书热卖榜
      • 青春文学 新书热卖榜
      • 童书 新书热卖榜
      • 管理 新书热卖榜
      • 成功/励志 新书热卖榜
      • 艺术 新书热卖榜
  • 精选分类
    • 小说
    • 保健养生
    • 烹饪/美食
    • 风水/占卜
    • 青春文学
    • 童书
    • 管理
    • 成功/励志
    • 文学
    • 哲学/宗教
    • 传记
    • 投资理财
    • 亲子家教
    • 动漫/幽默
    • 法律 Legal
    • 经济 Economics
    • 所有分类
  • 关于东东
  • 帮我找书
搜索
首页计算机/网络程序设计基于BERT模型的自然语言处理实战

基于BERT模型的自然语言处理实战

作者:李金洪 出版社:电子工业出版社 出版时间:2023年01月 

ISBN: 9787121414084
年中特卖用“SALE15”折扣卷全场书籍85折!可与三本88折,六本78折的优惠叠加计算!全球包邮!
trust badge

EUR €78.99

类别: 计算机/网络 新书热卖榜, 程序设计 SKU:6431a334f0f224279a8c588d 库存: 有现货
  • 描述
  • 评论( 0 )

描述

包 装: 平塑勒是否套装: 否国际标准书号ISBN: 9787121414084

内容简介
本书介绍如何在PyTorch框架中使用BERT模型完成自然语言处理(NLP)任务。BERT模型是当今处理自然语言任务效果最好的模型。掌握了该模型,就相当于掌握了当今主流的NLP技术。 本书共3篇。第1篇介绍了神经网络的基础知识、NLP的基础知识,以及编程环境的搭建;第2篇介绍了PyTorch编程基础,以及BERT模型的原理、应用和可解释性;第3篇是BERT模型实战,帮助读者开阔思路、增长见识,使读者能够真正驾驭BERT模型,活学活用,完成自然语言处理任务。 通过本书,读者可以熟练地在PyTorch框架中开发并训练神经网络模型,快速地使用BERT模型完成各种主流的自然语言处理任务,独立地设计并训练出针对特定需求的BERT模型,轻松地将BERT模型封装成Web服务部署到云端。 本书结构清晰、案例丰富、通俗易懂、实用性强,适合对自然语言处理、BERT模型感兴趣的读者作为自学教程。另外,本书也适合社会培训学校作为培训教材,还适合计算机相关专业作为教学参考书。
作者简介
李金洪,擅长神经网络、算法、协议分析、逆向、移动互联网安全架构等技术;先后担任过CAD算法工程师、手机游戏主程、架构师、项目经理、CTO、部门经理、资深产品总监等职位,目前创业中。
目  录
目 录

★★第1篇 入门——基础知识与编程框架

第1章 BERT模型很强大,你值得拥有 /2

★1.1 全球欢腾,喜迎BERT模型 /2

★1.2 为什么BERT模型这么强 /3

★1.3 怎么学习BERT模型 /4

1.3.1 BERT模型的技术体系 /4

1.3.2 学好自然语言处理的4件套——神经网络的基础知识、NLP的基础知识、编程框架的使用、BERT模型的原理及应用 /4

1.3.3 学习本书的前提条件 /5

★1.4 自然语言处理的技术趋势 /5

1.4.1 基于超大规模的高精度模型 /6

1.4.2 基于超小规模的高精度模型 /6

1.4.3 基于小样本训练的模型 /6

第2章 神经网络的基础知识——可能你掌握得也没有那么牢 /7

★2.1 什么是神经网络 /7

2.1.1 神经网络能解决哪些问题 /7

2.1.2 神经网络的发展 /7

2.1.3 什么是深度学习 /8

2.1.4 什么是图神经网络 /8

2.1.5 什么是图深度学习 /9

★2.2 神经网络的工作原理 /10

2.2.1 了解单个神经元 /10

2.2.2 生物神经元与计算机神经元模型的结构相似性 /12

2.2.3 生物神经元与计算机神经元模型的工作流程相似性 /12

2.2.4 神经网络的形成 /13

★2.3 深度学习中包含了哪些神经网络 /13

2.3.1 全连接神经网络 /13

2.3.2 卷积神经网络 /17

2.3.3 循环神经网络 /23

2.3.4 带有注意力机制的神经网络 /30

2.3.5 自编码神经网络 /34

★2.4 图深度学习中包含哪些神经网络 /36

2.4.1 同构图神经网络 /37

2.4.2 异构图神经网络 /37

★2.5 激活函数——加入非线性因素,以解决线性模型的缺陷 /38

2.5.1 常用的激活函数 /38

2.5.2 更好的激活函数——Swish()与Mish() /41

2.5.3 更适合NLP任务的激活函数——GELU() /43

2.5.4 激活函数总结 /44

2.5.5 分类任务与Softmax算法 /44

★2.6 训练模型的原理 /45

2.6.1 反向传播与BP算法 /47

2.6.2 神经网络模块中的损失函数 /49

2.6.3 学习率 /50

2.6.5 优化器 /51

2.6.6 训练模型的相关算法,会用就行 /52

★2.7 【实例】用循环神经网络实现退位减法 /52

★2.8 训练模型中的常见问题及优化技巧 /56

2.8.1 过拟合与欠拟合问题 /56

2.8.2 改善模型过拟合的方法 /56

2.8.3 了解正则化技巧 /57

2.8.4 了解Dropout技巧 /57

2.8.5 Targeted Dropout与Multi-sample Dropout /58

2.8.6 批量归一化(BN)算法 /59

2.8.7 多种BN算法的介绍与选取 /64

2.8.8 全连接网络的深浅与泛化能力的联系 /64

第3章 NLP的基础知识——NLP没那么“玄” /65

★3.1 NLP的本质与原理 /65

3.1.1 情感分析、相似度分析等任务的本质 /65

3.1.2 完形填空、实体词识别等任务的本质 /66

3.1.3 文章摘要任务、问答任务、翻译任务的本质 /67

★3.2 NLP的常用工具 /68

3.2.1 自然语言处理工具包——SpaCy /68

3.2.2 中文分词工具——Jieba /69

3.2.3 中文转拼音工具——Pypinyin /69

3.2.4 评估翻译质量的算法库——SacreBLEU /70

★3.3 计算机中的字符编码 /70

3.3.1 什么是ASCII编码 /71

3.3.2 为什么会出现乱码问题 /71

3.3.3 什么是Unicode /71

3.3.4 借助Unicode 处理中文字符的常用操作 /73

★3.4 计算机中的词与句 /74

3.4.1 词表与词向量 /75

3.4.2 词向量的原理及意义 /75

3.4.3 多项式分布 /76

3.4.4 什么是依存关系分析 /77

3.4.5 什么是TF /79

3.4.6 什么是IDF /79

3.4.7 什么是TF-IDF /80

3.4.8 什么是BLEU /80

★3.5 什么是语言模型 /81

3.5.1 统计语言模型 /81

3.5.2 CBOW与Skip-Gram语言模型 /81

3.5.3 自编码(Auto Encoding,AE)语言模型 /82

3.5.4 自回归(Auto Regressive,AR)语言模型 /83

★3.6 文本预处理的常用方法 /83

3.6.1 NLP数据集的获取与清洗 /83

3.6.2 基于马尔可夫链的数据增强 /84

第4章 搭建编程环境——从安装开始,更适合零基础入门 /87

★4.1 编程框架介绍 /87

4.1.1 PyTorch介绍 /87

4.1.2 DGL库介绍 /88

4.1.3 支持BERT模型的常用工具库介绍 /89

★4.2 搭建Python开发环境 /89

★4.3 搭建PyTorch开发环境 /91

★4.4 搭建DGL环境 /95

★4.5 安装Transformers库 /96

第2篇 基础——神经网络与BERT模型

第5章 PyTorch编程基础 /100

★5.1 神经网络中的基础数据类型 /100

★5.2 矩阵运算的基础 /101

5.2.1 转置矩阵 /101

5.2.2 对称矩阵及其特性 /101

5.2.3 对角矩阵与单位矩阵 /101

5.2.4 阿达玛积(Hadamard Product) /102

5.2.5 点积(Dot Product) /102

5.2.6 对角矩阵的特性与操作方法 /103

★5.3 PyTorch中的张量 /104

5.3.1 定义张量的方法 /105

5.3.2 生成随机值张量 /107

5.3.3 张量的基本操作 /108

5.3.4 在CPU和GPU控制的内存中定义张量 /112

5.3.5 张量间的数据操作 /113

★5.4 Variable类型与自动微分模块 /118

5.4.1 Variable对象与Tensor对象之间的转换 /118

5.4.2 控制梯度计算的方法 /119

5.4.3 Variable对象的属性 /121

★5.5 【实例】用PyTorch实现一个简单模型 /124

5.5.1 准备可复现的随机数据 /124

5.5.2 实现并训练模型 /125

5.5.3 可视化模型能力 /128

★5.6 定义模型结构的常用方法 /129

5.6.1 Module类的使用方法 /129

5.6.2 模型中的参数(Parameters变量) /131

5.6.3 为模型添加参数 /132

5.6.4 从模型中获取参数 /133

5.6.5 激活模型接口 /135

5.6.6 L2正则化接口 /136

5.6.7 Dropout接口 /136

5.6.8 批量归一化接口 /137

5.6.9 【实例】手动实现BN的计算方法 /139

★5.7 保存与载入模型的常用方法 /141

★5.8 训练模型的接口与使用 /143

5.8.1 选取训练模型中的损失函数 /143

5.8.2 【实例】Softmax接口的使用 /144

5.8.3 优化器的使用与优化参数的查看 /146

5.8.4 用退化学习率训练模型 /147

5.8.5 为模型添加钩子函数 /152

5.8.6 多显卡的训练方法 /153

5.8.7 梯度累加的训练方法 /153

★5.9 处理数据集的接口与使用 /154

5.9.1 用DataLoader类实现自定义数据集 /155

5.9.2 DataLoader类中的多种采样器子类 /155

5.9.3 Torchtext工具与内置数据集 /156

★5.10 【实例】训练中文词向量 /157

5.10.1 用Jieba库进行中文样本预处理 /158

5.10.2 按照Skip-Gram规则制作数据集 /159

5.10.3 搭建模型并进行训练 /161

5.10.4 夹角余弦值介绍 /164

★5.11 卷积神经网络的实现 /166

5.11.1 了解卷积接口 /166

5.11.2 卷积操作的类型 /168

5.11.3 卷积参数与卷积结果的计算规则 /169

5.11.4 【实例】卷积函数的使用 /169

5.11.5 了解池化接口 /174

5.11.6 【实例】池化函数的使用 /175

★5.12 【实例】用卷积神经网络实现文本分类任务 /177

5.12.1 了解用于文本分类的卷积网络——TextCNN模型 /177

5.12.2 编写代码实现实例 /179

5.12.3 用多GPU并行训练模型 /184

5.12.4 在多GPU的训练过程中,保存/读取模型文件的注意事项 /185

5.12.5 处理显存残留问题 /186

★5.13 RNN的实现 /187

5.13.1 LSTM与GRU接口的实现 /187

5.13.2 多项式分布采样接口 /188

★5.14 【实例】用RNN训练语言模型 /189

5.14.1 实现语言模型的思路与步骤 /189

5.14.2 准备样本与代码实现 /189

★5.15 【实例】手动实现一个带有自注意力机制的模型 /192

★5.16 【实例】利用带注意力机制的循环神经网络对文本进行分类 /194

5.16.1 制作等长数据集并实现LSTM模型 /194

5.16.2 用梯度剪辑技巧优化训练过程 /195

第6章 BERT模型的原理 /197

★6.1 BERT模型的起源——Transformer模型 /197

6.1.1 Transformer模型出现之前的主流模型 /197

6.1.2 Transformer模型的原理 /199

6.1.3 Transformer模型的优缺点 /204

★6.2 【实例】用Transformer模型进行中/英文翻译 /204

★6.3 BERT模型的原理 /206

6.3.1 BERT模型的训练过程 /207

6.3.2 BERT模型的预训练方法 /207

6.3.3 BERT模型的掩码机制 /208

6.3.4 BERT模型的训练参数 /210

6.3.5 BERT模型的缺点 /210

★6.4 高精度的BERTology系列模型 /211

6.4.1 适合生成文章的模型——GPT模型 /211

6.4.2 支持人机对话的模型——DialoGPT模型 /212

6.4.3 融合了BERT模型与GPT技术的模型——MASS模型 /212

6.4.4 支持长文本输入的模型——Transformer-XL模型 /212

6.4.5 支持更长文本的模型——XLNet模型 /213

6.4.6 弥补XLNet模型不足的模型——MPNet模型 /217

6.4.7 稳健

抢先评论了 “基于BERT模型的自然语言处理实战” 取消回复

评论

还没有评论。

相关产品

加入购物车

笨办法学Python 3

EUR €38.99
加入购物车

Python基础教程(第3版)

EUR €58.99
加入购物车

Python编程快速上手 让繁琐工作自动化(Python3编程从入门到实践 新手学习必备用书)

EUR €36.99
评分 5.00 / 5
加入购物车

Python核心编程 第3版

EUR €48.99
评分 5.00 / 5

东东购的宗旨是服务喜爱阅读中文书籍的海外人民,提供一个完善的购书平台,让国人不论何时何地都能沉浸在书香之中,读着熟悉的中文字,回忆着家乡的味道。


安全加密结账 安心网络购物 支持Paypal付款

常见问题

  • 货物配送
  • 退换货政策
  • 隐私政策
  • 联盟营销

客户服务

  • 联系东东
  • 关于东东
  • 帮我找书
  • 货物追踪
  • 会员登入

订阅最新的优惠讯息和书籍资讯

选择币别

EUR
USD
CAD
AUD
NZD
NOK
GBP
CHF
SEK
CNY
UAH
ILS
SAR
MXN
KRW
MYR
SGD
HUF
TRY
JPY
HKD
TWD
facebookinstagram
©2020 东东购 EasternEast.com

限时特卖:用“SALE15”优惠券全场书籍85折!可与三本88折,六本78折的优惠叠加计算。 忽略