为你推荐
前折页
书名页
版权
致数字化人才的一封信
前言
目录
第1章 深度学习理论基础
1.1 深度学习概况
1.1.1 深度学习的历史
1.1.2 “无所不能”的深度学习
1.2 深度学习神经网络
1.2.1 神经网络
1.2.2 隐藏层
1.2.3 梯度下降
1.2.4 激活函数
1.2.5 权重初始化
1.2.6 正则化
1.2.7 归一化
第2章 深度学习的软件框架
2.1 环境配置
2.1.1 Anaconda
2.1.2 英伟达GPU驱动+CUDA+cuDNN
2.1.3 PyTorch安装
2.1.4 Python IDE选择
2.2 PyTorch入门
2.2.1 Tensor基本概念
2.2.2 Tensor的运算
2.3 PyTorch自动求梯度
2.3.1 基本概念
2.3.2 Tensor样例
2.3.3 梯度计算
2.4 PyTorch nn模块
第3章 语言模型与词向量
3.1 语言模型
3.1.1 无处不在的语言模型
3.1.2 神经网络语言模型
3.2 词向量
3.2.1 one-hot
3.2.2 word2vec
3.2.3 GloVe
3.3 代码实战
3.3.1 任务1:应用PyTorch搭建Skip-Gram
3.3.2 任务2:基于GloVe的大规模中文语料的词向量训练
第4章 序列模型与梯度消失/爆炸
4.1 循环神经网络
4.1.1 模型结构及计算过程
4.1.2 应用PyTorch搭建并训练RNN模型
4.2 梯度消失与爆炸
4.2.1 产生原因
4.2.2 解决方法
4.3 改进方法
4.3.1 LSTM
4.3.2 GRU
4.4 代码实战:搭建LSTM/GRU的文本分类器
第5章 卷积神经网络在NLP领域的应用
5.1 卷积神经网络的概念
5.1.1 输入层
5.1.2 卷积层
5.1.3 池化层
5.1.4 全连接层
5.2 空洞卷积神经网络
5.2.1 空洞卷积的基本定义
5.2.2 空洞卷积在NLP中的应用
5.2.3 空洞卷积相关代码
5.2.4 多层卷积
5.3 代码实战:CNN情感分类实战
5.3.1 数据处理
5.3.2 程序主干部分
5.3.3 模型部分
5.3.4 模型训练与评估
第6章 Seq2Seq模型与Attention机制
6.1 Encoder-Decoder结构
6.1.1 Encoder
6.1.2 Decoder
6.1.3 Encoder-Decoder存在的问题
6.2 Attention机制
6.3 Seq2Seq训练与预测
6.3.1 模型训练
6.3.2 模型预测
6.3.3 BLEU模型评估法
6.4 代码实战:应用PyTorch搭建机器翻译模型
第7章 大规模预训练模型
7.1 ELMo
7.1.1 模型结构
7.1.2 模型效果
7.1.3 ELMo的优点
7.1.4 利用ELMo+CNN进行分类的示例
7.2 Transformer
7.2.1 Encoder端及Decoder端总览
7.2.2 Encoder端各个子模块
7.2.3 Decoder端各个子模块
7.2.4 其他模块
7.2.5 完整模型
第8章 预训练语言模型BERT
8.1 BERT的基本概念
8.2 BERT的工作原理
8.2.1 BERT的预训练
8.2.2 BERT模型结构
8.2.3 BERT的微调
8.3 BERT的可解释性
8.4 其他预训练模型
8.4.1 XLNet
8.4.2 RoBERTa
8.4.3 ALBERT
8.5 代码实战:预训练模型
参考文献
后折页
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜