为你推荐
前折页
内容简介
前言
第1章 初识PyTorch
1.1 神经网络发展简史
1.1.1 神经网络的前世今生
1.1.2 深度学习框架对比
1.2 环境安装
1.2.1 Python环境的选择及安装
1.2.2 PyTorch 1.2的安装
1.2.3 开发环境IDE
1.3 PyTorch的核心概念
1.3.1 PyTorch的基本概念
1.3.2 自动微分
1.3.3 PyTorch的核心模块
1.4 实验室小试牛刀
1.4.1 塔珀自指公式
1.4.2 看看你毕业了能拿多少
1.5 加油站之高等数学知识回顾
1.5.1 函数基础知识
1.5.2 常见的导数公式
第2章 机器学习快速入门
2.1 机器学习的分类
2.1.1 监督学习
2.1.2 半监督学习
2.1.3 无监督学习
2.1.4 强化学习
2.2 机器学习的常见概念
2.2.1 缺失值处理
2.2.2 数据标准化与数据正则化
2.2.3 交叉验证
2.2.4 过拟合与欠拟合
2.3 神经网络
2.3.1 神经网络的生物学发现与编程模拟
2.3.2 人工神经网络的核心思想
2.4 实现线性回归、多项式回归和逻辑回归
2.4.1 PyTorch实现线性回归
2.4.2 PyTorch实现多项式回归
2.4.3 PyTorch实现逻辑回归
2.5 加油站之高等数学知识回顾
2.5.1 方向导数和梯度
2.5.2 微分及积分
2.5.3 牛顿-莱布尼兹公式
第3章 PyTorch与科学计算
3.1 算子字典
3.1.1 基本方法
3.1.2 索引、切片、连接和换位
3.1.3 随机抽样
3.1.4 数据持久化与高并发
3.1.5 元素级别的数学计算
3.1.6 规约计算
3.1.7 数值比较运算
3.1.8 矩阵运算
3.2 广播机制
3.2.1 自动广播规则
3.2.2 广播计算规则
3.3 GPU设备及并行编程
3.3.1 device和cuda.device的基本用法
3.3.2 CPU设备到GPU设备
3.3.3 固定缓冲区
3.3.4 自动设备感知
3.3.5 并发编程
3.4 实验室小试牛刀之轻松搞定图片分类
3.4.1 softmax分类简介
3.4.2 定义网络结构
3.5 加油站之高等数学知识回顾
3.5.1 泰勒公式及其思想
3.5.2 拉格朗日乘子法及其思想
第4章 激活函数、损失函数、优化器及数据加载
4.1 激活函数
4.1.1 Sigmoid
4.1.2 tanh
4.1.3 ReLU及其变形
4.1.4 MaxOut
4.2 损失函数
4.2.1 L1范数损失
4.2.2 均方误差损失
4.2.3 二分类交叉熵损失
4.2.4 CrossEntropyLoss和NLLLoss计算交叉熵损失
4.2.5 KL散度损失
4.2.6 余弦相似度损失
4.2.7 多分类多标签损失
4.3 优化器
4.3.1 BGD
4.3.2 SGD
4.3.3 MBGD
4.3.4 Momentum
4.3.5 NAG
4.3.6 Adagrad
4.3.7 Adadelta
4.3.8 Adam
4.4 数据加载
4.4.1 Dataset数据集
4.4.2 DataLoader数据加载
4.5 初探卷积神经网络
4.5.1 知识科普:卷积过程及物理意义
4.5.2 卷积神经网络
4.5.3 stride和padding
4.5.4 膨胀卷积神经网络
4.5.5 池化
4.6 实验室小试牛刀
4.6.1 设计卷积神经网络
4.6.2 定义卷积神经网络
4.6.3 模型训练
4.6.4 理解卷积神经网络在学什么
第5章 PyTorch深度神经网络
5.1 计算机视觉工具包
5.2 训练过程的可视化
5.2.1 TensorBoard
5.2.2 Visdom
5.3 深度神经网络
5.3.1 LeNet
5.3.2 AlexNet
5.3.3 ZF-Net
5.3.4 VGG-Nets
5.3.5 GoogLeNet
5.3.6 ResNet
5.3.7 DenseNet
5.4 循环神经网络
5.4.1 循环神经网络基础模型
5.4.2 LSTM
5.4.3 GRU
5.5 实验室小试牛刀
5.5.1 数据准备
5.5.2 GRU网络设计
5.5.3 模型训练
5.5.4 模型预测
5.6 加油站之概率论基础知识回顾
5.6.1 离散型随机变量和连续型随机变量
5.6.2 概率论常用概念
5.6.3 二维随机变量
5.6.4 边缘分布
5.6.5 期望和方差
5.6.6 大数定理
5.6.7 马尔可夫不等式及切比雪夫不等式
5.6.8 中心极限定理
第6章 自然语言处理
6.1 自然语言基础
6.1.1 自然语言发展史
6.1.2 自然语言处理中的常见任务
6.1.3 统计自然语言理论
6.1.4 使用隐马尔可夫模型实现中文分词
6.2 提取关键字
6.2.1 TF-IDF
6.2.2 TextRank
6.2.3 主题模型
6.3 Word2vec和词嵌入
6.3.1 N-Gram模型
6.3.2 词袋模型
6.3.3 Word2vec词向量的密集表示
6.3.4 使用Word2vec生成词向量
6.3.5 Word2vec源码调试
6.3.6 在PyTorch中使用词向量
6.4 变长序列处理
6.4.1 pack_padded_sequence压缩
6.4.2 pad_packed_sequence解压缩
6.5 Encoder-Decoder框架和注意力机制
6.5.1 Encoder-Decoder框架
6.5.2 注意力机制
6.6 实验室小试牛刀之对话机器人
6.6.1 中文对话语料
6.6.2 构建问答词典
6.6.3 DataLoader数据加载
6.6.4 Encoder双向多层GRU
6.6.5 运用注意力机制
6.6.6 Decoder多层GRU
6.6.7 模型训练
6.6.8 答案搜索及效果展示
6.7 加油站之常见的几种概率分布
6.7.1 二项分布
6.7.2 正态分布
6.7.3 均匀分布
6.7.4 泊松分布
6.7.5 卡方分布
6.7.6 Beta分布
第7章 自然语言的曙光:预训练模型
7.1 预训练模型的应用
7.2 从词嵌入到ELMo
7.2.1 词嵌入头上的乌云
7.2.2 ELMo
7.3 从ELMo模型到GPT模型
7.3.1 GPT模型
7.3.2 使用GPT模型
7.4 从GPT模型到BERT模型
第8章 自然语言处理利器:AllenNLP
8.1 中文词性标注
8.1.1 DatasetReader数据读取
8.1.2 定义Model模型
8.1.3 模型训练
8.1.4 模型预测
8.1.5 模型保存和加载
8.2 AllenNLP使用Config Files
8.2.1 参数解析
8.2.2 注册数据读取器和模型
8.2.3 定义Jsonnet配置文件
8.2.4 命令行工具
8.2.5 特征融合
8.2.6 制作在线Demo
第9章 FastAI高层深度学习框架
9.1 FastAI框架中的原语
9.2 在FastAI框架中使用BERT模型完成中文分类
9.2.1 分词器
9.2.2 定义字典
9.2.3 数据准备
9.2.4 构建Databunch和Learner
9.2.5 模型训练
9.2.6 模型保存和加载
9.2.7 模型预测
9.2.8 制作Rest接口提供服务
第10章 PyTorch Big Graph嵌入
10.1 PyTorch Big Graph简介
10.1.1 PBG模型
10.1.2 模型的表示
10.1.3 正样本、负样本及损失函数
10.1.4 分布式训练
10.1.5 批量负采样
10.2 PBG实践应用
10.2.1 模型配置文件
10.2.2 划分训练集和测试集
10.2.3 模型训练和验证
10.2.4 图嵌入向量及应用
后折页
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜