万本电子书0元读

万本电子书0元读

顶部广告

深度学习自然语言处理实战电子书

本书介绍了当前NLP的研究热,如预训练模型、知识的引、迁移学习、低资源任务学习、多模态学习等,内容介绍上由浅深,从基础环境安装,到理论讲解,再到数学推导,然后解释各个模型的优缺,*后还有应用场景介绍和代码实战。

售       价:¥

纸质售价:¥32.90购买纸书

93人正在读 | 0人评论 6.2

作       者:开课吧组编

出  版  社:机械工业出版社

出版时间:2020-08-17

字       数:7.7万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
近年来,基于深度学习方法的自然语言处理(NLP)已逐渐成为主流。本书共8章,主要介绍自然语言处理任务中的深度学习技术,包含深度学习理论基础、深度学习的软件框架、语言模型与词向量、序列模型与梯度消失/爆炸、卷积神经网络在NLP领域的应用、Seq2Seq模型与Attention机制、大规模预训练模型、预训练语言模型BERT,还给出了自然语言处理技术的高级应用和发实例,并收录了基于PyTorch深度学习框架的部分实践项目。 本书既可作为人工智能、计算机科学、电子信息工程、自动化等专业的本科生及研究生教材,也可作为自然语言处理相关领域的研究人员和技术人员的参考资料。<br/>【推荐语】<br/>本书介绍了当前NLP的研究热,如预训练模型、知识的引、迁移学习、低资源任务学习、多模态学习等,内容介绍上由浅深,从基础环境安装,到理论讲解,再到数学推导,然后解释各个模型的优缺,*后还有应用场景介绍和代码实战。<br/>
目录展开

前折页

书名页

版权

致数字化人才的一封信

前言

目录

第1章 深度学习理论基础

1.1 深度学习概况

1.1.1 深度学习的历史

1.1.2 “无所不能”的深度学习

1.2 深度学习神经网络

1.2.1 神经网络

1.2.2 隐藏层

1.2.3 梯度下降

1.2.4 激活函数

1.2.5 权重初始化

1.2.6 正则化

1.2.7 归一化

第2章 深度学习的软件框架

2.1 环境配置

2.1.1 Anaconda

2.1.2 英伟达GPU驱动+CUDA+cuDNN

2.1.3 PyTorch安装

2.1.4 Python IDE选择

2.2 PyTorch入门

2.2.1 Tensor基本概念

2.2.2 Tensor的运算

2.3 PyTorch自动求梯度

2.3.1 基本概念

2.3.2 Tensor样例

2.3.3 梯度计算

2.4 PyTorch nn模块

第3章 语言模型与词向量

3.1 语言模型

3.1.1 无处不在的语言模型

3.1.2 神经网络语言模型

3.2 词向量

3.2.1 one-hot

3.2.2 word2vec

3.2.3 GloVe

3.3 代码实战

3.3.1 任务1:应用PyTorch搭建Skip-Gram

3.3.2 任务2:基于GloVe的大规模中文语料的词向量训练

第4章 序列模型与梯度消失/爆炸

4.1 循环神经网络

4.1.1 模型结构及计算过程

4.1.2 应用PyTorch搭建并训练RNN模型

4.2 梯度消失与爆炸

4.2.1 产生原因

4.2.2 解决方法

4.3 改进方法

4.3.1 LSTM

4.3.2 GRU

4.4 代码实战:搭建LSTM/GRU的文本分类器

第5章 卷积神经网络在NLP领域的应用

5.1 卷积神经网络的概念

5.1.1 输入层

5.1.2 卷积层

5.1.3 池化层

5.1.4 全连接层

5.2 空洞卷积神经网络

5.2.1 空洞卷积的基本定义

5.2.2 空洞卷积在NLP中的应用

5.2.3 空洞卷积相关代码

5.2.4 多层卷积

5.3 代码实战:CNN情感分类实战

5.3.1 数据处理

5.3.2 程序主干部分

5.3.3 模型部分

5.3.4 模型训练与评估

第6章 Seq2Seq模型与Attention机制

6.1 Encoder-Decoder结构

6.1.1 Encoder

6.1.2 Decoder

6.1.3 Encoder-Decoder存在的问题

6.2 Attention机制

6.3 Seq2Seq训练与预测

6.3.1 模型训练

6.3.2 模型预测

6.3.3 BLEU模型评估法

6.4 代码实战:应用PyTorch搭建机器翻译模型

第7章 大规模预训练模型

7.1 ELMo

7.1.1 模型结构

7.1.2 模型效果

7.1.3 ELMo的优点

7.1.4 利用ELMo+CNN进行分类的示例

7.2 Transformer

7.2.1 Encoder端及Decoder端总览

7.2.2 Encoder端各个子模块

7.2.3 Decoder端各个子模块

7.2.4 其他模块

7.2.5 完整模型

第8章 预训练语言模型BERT

8.1 BERT的基本概念

8.2 BERT的工作原理

8.2.1 BERT的预训练

8.2.2 BERT模型结构

8.2.3 BERT的微调

8.3 BERT的可解释性

8.4 其他预训练模型

8.4.1 XLNet

8.4.2 RoBERTa

8.4.3 ALBERT

8.5 代码实战:预训练模型

参考文献

后折页

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部