万本电子书0元读

万本电子书0元读

顶部广告

PyTorch深度学习实战:从新手小白到数据科学家电子书

售       价:¥

纸质售价:¥81.20购买纸书

295人正在读 | 0人评论 6.2

作       者:张敏

出  版  社:电子工业出版社

出版时间:2020-08-01

字       数:17.3万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书以深度学习为核心,详细讲解Pytorch技术堆栈,力求使用*直白的语言,带更多的小白学员门甚至精通深度学习。本书共分为10个章节,前五个章节主要讲解深度学习中的基本算法及概念,通过使用Pytorch实现经典的神经网络并辅以"课后加油站”小节补充数学知识,力求让每一个知识、每一个章节、每一个实验都能在学员脑海中留下印象,做到看了能做、做了能会、会了能用。后面五个章节作为Pytorch的阶,会讲使用Pytorch构建深度神经网络、使用HMM实现中文分词、训练聊天机器人等有意思的小实验。引当下*流行的自然语言预训练模型如Elmo、BERT等,教会读者使用自然语言利器AllenNLP及高阶框架FastAI。*后一章讲解当下*流行的图嵌技术,对知识图谱感兴趣的童鞋可以深的研究。<br/>【推荐语】<br/>很系统:从理论到实战,带你系统学习PyTorch 很实用:凝聚作者教学经验,切中读者门痛 很深:通过小试牛刀、知识加油站,加深理解 重实战:包含50多个实战案例,可拿来就用<br/>【作者】<br/>张敏,2015年始从事大数据行业,多年来一直致力于数据分析和算法发。2017年始触在线教育,目前全网学员总数破100万,相继在51CTO、腾讯课堂、网易课堂、CSDN等平台启教学。在51CTO平台上的SPARK课程销量做到行业类目前列,曾在多家大公司从事数据挖掘工作,拥有丰富的大数据经验和底层数据思维。在工作中总结了很多有用的经验,都毫无保留地分享给读者,以帮助读者提升、成长。<br/>
目录展开

前折页

内容简介

前言

第1章 初识PyTorch

1.1 神经网络发展简史

1.1.1 神经网络的前世今生

1.1.2 深度学习框架对比

1.2 环境安装

1.2.1 Python环境的选择及安装

1.2.2 PyTorch 1.2的安装

1.2.3 开发环境IDE

1.3 PyTorch的核心概念

1.3.1 PyTorch的基本概念

1.3.2 自动微分

1.3.3 PyTorch的核心模块

1.4 实验室小试牛刀

1.4.1 塔珀自指公式

1.4.2 看看你毕业了能拿多少

1.5 加油站之高等数学知识回顾

1.5.1 函数基础知识

1.5.2 常见的导数公式

第2章 机器学习快速入门

2.1 机器学习的分类

2.1.1 监督学习

2.1.2 半监督学习

2.1.3 无监督学习

2.1.4 强化学习

2.2 机器学习的常见概念

2.2.1 缺失值处理

2.2.2 数据标准化与数据正则化

2.2.3 交叉验证

2.2.4 过拟合与欠拟合

2.3 神经网络

2.3.1 神经网络的生物学发现与编程模拟

2.3.2 人工神经网络的核心思想

2.4 实现线性回归、多项式回归和逻辑回归

2.4.1 PyTorch实现线性回归

2.4.2 PyTorch实现多项式回归

2.4.3 PyTorch实现逻辑回归

2.5 加油站之高等数学知识回顾

2.5.1 方向导数和梯度

2.5.2 微分及积分

2.5.3 牛顿-莱布尼兹公式

第3章 PyTorch与科学计算

3.1 算子字典

3.1.1 基本方法

3.1.2 索引、切片、连接和换位

3.1.3 随机抽样

3.1.4 数据持久化与高并发

3.1.5 元素级别的数学计算

3.1.6 规约计算

3.1.7 数值比较运算

3.1.8 矩阵运算

3.2 广播机制

3.2.1 自动广播规则

3.2.2 广播计算规则

3.3 GPU设备及并行编程

3.3.1 device和cuda.device的基本用法

3.3.2 CPU设备到GPU设备

3.3.3 固定缓冲区

3.3.4 自动设备感知

3.3.5 并发编程

3.4 实验室小试牛刀之轻松搞定图片分类

3.4.1 softmax分类简介

3.4.2 定义网络结构

3.5 加油站之高等数学知识回顾

3.5.1 泰勒公式及其思想

3.5.2 拉格朗日乘子法及其思想

第4章 激活函数、损失函数、优化器及数据加载

4.1 激活函数

4.1.1 Sigmoid

4.1.2 tanh

4.1.3 ReLU及其变形

4.1.4 MaxOut

4.2 损失函数

4.2.1 L1范数损失

4.2.2 均方误差损失

4.2.3 二分类交叉熵损失

4.2.4 CrossEntropyLoss和NLLLoss计算交叉熵损失

4.2.5 KL散度损失

4.2.6 余弦相似度损失

4.2.7 多分类多标签损失

4.3 优化器

4.3.1 BGD

4.3.2 SGD

4.3.3 MBGD

4.3.4 Momentum

4.3.5 NAG

4.3.6 Adagrad

4.3.7 Adadelta

4.3.8 Adam

4.4 数据加载

4.4.1 Dataset数据集

4.4.2 DataLoader数据加载

4.5 初探卷积神经网络

4.5.1 知识科普:卷积过程及物理意义

4.5.2 卷积神经网络

4.5.3 stride和padding

4.5.4 膨胀卷积神经网络

4.5.5 池化

4.6 实验室小试牛刀

4.6.1 设计卷积神经网络

4.6.2 定义卷积神经网络

4.6.3 模型训练

4.6.4 理解卷积神经网络在学什么

第5章 PyTorch深度神经网络

5.1 计算机视觉工具包

5.2 训练过程的可视化

5.2.1 TensorBoard

5.2.2 Visdom

5.3 深度神经网络

5.3.1 LeNet

5.3.2 AlexNet

5.3.3 ZF-Net

5.3.4 VGG-Nets

5.3.5 GoogLeNet

5.3.6 ResNet

5.3.7 DenseNet

5.4 循环神经网络

5.4.1 循环神经网络基础模型

5.4.2 LSTM

5.4.3 GRU

5.5 实验室小试牛刀

5.5.1 数据准备

5.5.2 GRU网络设计

5.5.3 模型训练

5.5.4 模型预测

5.6 加油站之概率论基础知识回顾

5.6.1 离散型随机变量和连续型随机变量

5.6.2 概率论常用概念

5.6.3 二维随机变量

5.6.4 边缘分布

5.6.5 期望和方差

5.6.6 大数定理

5.6.7 马尔可夫不等式及切比雪夫不等式

5.6.8 中心极限定理

第6章 自然语言处理

6.1 自然语言基础

6.1.1 自然语言发展史

6.1.2 自然语言处理中的常见任务

6.1.3 统计自然语言理论

6.1.4 使用隐马尔可夫模型实现中文分词

6.2 提取关键字

6.2.1 TF-IDF

6.2.2 TextRank

6.2.3 主题模型

6.3 Word2vec和词嵌入

6.3.1 N-Gram模型

6.3.2 词袋模型

6.3.3 Word2vec词向量的密集表示

6.3.4 使用Word2vec生成词向量

6.3.5 Word2vec源码调试

6.3.6 在PyTorch中使用词向量

6.4 变长序列处理

6.4.1 pack_padded_sequence压缩

6.4.2 pad_packed_sequence解压缩

6.5 Encoder-Decoder框架和注意力机制

6.5.1 Encoder-Decoder框架

6.5.2 注意力机制

6.6 实验室小试牛刀之对话机器人

6.6.1 中文对话语料

6.6.2 构建问答词典

6.6.3 DataLoader数据加载

6.6.4 Encoder双向多层GRU

6.6.5 运用注意力机制

6.6.6 Decoder多层GRU

6.6.7 模型训练

6.6.8 答案搜索及效果展示

6.7 加油站之常见的几种概率分布

6.7.1 二项分布

6.7.2 正态分布

6.7.3 均匀分布

6.7.4 泊松分布

6.7.5 卡方分布

6.7.6 Beta分布

第7章 自然语言的曙光:预训练模型

7.1 预训练模型的应用

7.2 从词嵌入到ELMo

7.2.1 词嵌入头上的乌云

7.2.2 ELMo

7.3 从ELMo模型到GPT模型

7.3.1 GPT模型

7.3.2 使用GPT模型

7.4 从GPT模型到BERT模型

第8章 自然语言处理利器:AllenNLP

8.1 中文词性标注

8.1.1 DatasetReader数据读取

8.1.2 定义Model模型

8.1.3 模型训练

8.1.4 模型预测

8.1.5 模型保存和加载

8.2 AllenNLP使用Config Files

8.2.1 参数解析

8.2.2 注册数据读取器和模型

8.2.3 定义Jsonnet配置文件

8.2.4 命令行工具

8.2.5 特征融合

8.2.6 制作在线Demo

第9章 FastAI高层深度学习框架

9.1 FastAI框架中的原语

9.2 在FastAI框架中使用BERT模型完成中文分类

9.2.1 分词器

9.2.2 定义字典

9.2.3 数据准备

9.2.4 构建Databunch和Learner

9.2.5 模型训练

9.2.6 模型保存和加载

9.2.7 模型预测

9.2.8 制作Rest接口提供服务

第10章 PyTorch Big Graph嵌入

10.1 PyTorch Big Graph简介

10.1.1 PBG模型

10.1.2 模型的表示

10.1.3 正样本、负样本及损失函数

10.1.4 分布式训练

10.1.5 批量负采样

10.2 PBG实践应用

10.2.1 模型配置文件

10.2.2 划分训练集和测试集

10.2.3 模型训练和验证

10.2.4 图嵌入向量及应用

后折页

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部