万本电子书0元读

万本电子书0元读

顶部广告

深入浅出GAN生成对抗网络:原理剖析与TensorFlow实践电子书

·市面上难得一见的既蕴含底层模型的数学之美,又注重操作实践的生成对抗网络门到精通的好书。 ·企业一线发工程师与应用型本科院校知名教师,双剑合璧,兼顾理论实战。 ·学者网创始人汤庸教授、《深度学习之美》作者张玉宏、景略集智CEO王文凯倾力推荐。 1.容易门:本书会讨论线性代数、微积分、概率论、信息论等内容,尽力只提及后面内容需要的数学知识,并从原理角度去讲解这块内容,为后面篇幅做好铺垫。 2.内容更深:介绍GAN 的各种变体时,除了介绍架构以外,还会讲解目标函数为何要这样设计,并从数学层面去推导证实,可以说本书比较重视不同类别GAN 架构的底层思想,并从数学上表示它。 3.涉及面广:囊括了GAN 的各个应用领域,包括传统GAN、DCGAN、CGAN、ColorGAN、CycleGAN、StarGAN、DTN、XGAN、WGAN、WGAN-GP、SN-GAN、StackGAN、StackGAN-v2、PGGGAN 等10 多个方向。 4.实战性强:提供了很多代码,并给出运行结果。考虑到篇幅原因,并没有将每个类别的所有代码都放上去,而是主要讲解生成器、判别器、损失定义、具体训练逻辑等主要内容。

售       价:¥

纸质售价:¥78.20购买纸书

105人正在读 | 5人评论 6.2

作       者:廖茂文 潘志宏

出  版  社:人民邮电出版社

出版时间:2020-06-01

字       数:44.7万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
本书首先从Python 基本语法始讨论,逐步介绍的数学知识与神经网络的基本知识,并利用讨论的内容编写一个深度学习框架TensorPy,有了这些知识作为铺垫后,就始讨论生成对抗网络(GAN)相关的内容。然后,本书使用比较简单的语言来描述GAN 涉及的思想、模型与数学原理,着便通过TensorFlow实现传统的GAN,并讨论为何一定需要生成器或判别器。下来,重介绍GAN 各种常见的变体,包括卷积生成对抗网络、条件对抗生成网络、循环一致性、改生成对抗网络、渐近增强式生成对抗网络等内容。 本书从模型与数学的角度来理解GAN 变体,希望通过数学符号表达出不同GAN 变体的核心思想,适合人工智能、机器学习、计算机视觉相关专业的人员学习使用。<br/>【推荐语】<br/>·市面上难得一见的既蕴含底层模型的数学之美,又注重操作实践的生成对抗网络门到精通的好书。 ·企业一线发工程师与应用型本科院校知名教师,双剑合璧,兼顾理论实战。 ·学者网创始人汤庸教授、《深度学习之美》作者张玉宏、景略集智CEO王文凯倾力推荐。 1.容易门:本书会讨论线性代数、微积分、概率论、信息论等内容,尽力只提及后面内容需要的数学知识,并从原理角度去讲解这块内容,为后面篇幅做好铺垫。 2.内容更深:介绍GAN 的各种变体时,除了介绍架构以外,还会讲解目标函数为何要这样设计,并从数学层面去推导证实,可以说本书比较重视不同类别GAN 架构的底层思想,并从数学上表示它。 3.涉及面广:囊括了GAN 的各个应用领域,包括传统GAN、DCGAN、CGAN、ColorGAN、CycleGAN、StarGAN、DTN、XGAN、WGAN、WGAN-GP、SN-GAN、StackGAN、StackGAN-v2、PGGGAN 等10 多个方向。 4.实战性强:提供了很多代码,并给出运行结果。考虑到篇幅原因,并没有将每个类别的所有代码都放上去,而是主要讲解生成器、判别器、损失定义、具体训练逻辑等主要内容。<br/>【作者】<br/>廖茂文:游戏AI研究员、高级工程师、中国人工智能学会高级会员。研究兴趣为自然语言处理、生成对抗网络、游戏AI,曾参与多项机器学习项目。 潘志宏:高级工程师,中山大学新华学院“百名骨干教师”,中国人工智能学会高级会员、中国计算机学会会员。研究兴趣为机器学习、深度学习、物联网。主持和参与省市级、校级项目10余项,其中主持广东省普通高校青年创新人才项目、*产学合作协同育人项目各一项。发表论文18篇,其中SCI、EI、北大核心期刊12篇,作者论文获得北大核心期刊优秀论文、东莞市计算机学会优秀论文。申请发明专利、实用新型专利共8项,其中已授权3项,获得软件著作权3项,已出版教材3部。指导学生获得和省级竞赛奖项50余项,多次获得和省级优秀指导教师奖。<br/>
目录展开

版权页

目录

内容提要

推荐序

前言

第1章 优雅Python

1.1 Anaconda

1.2 Python基础

1.2.1 常用数据类型

1.2.2 流程控制

1.2.3 函数定义

1.3 Python进阶

1.3.1 生成式

1.3.2 可迭代对象与迭代器

1.3.3 生成器

1.3.4 装饰器

1.4 小结

第2章 优雅的数学

2.1 向量与矩阵

2.1.1 向量的概念

2.1.2 向量的基本运算

2.1.3 矩阵的概念

2.1.4 矩阵的运算

2.2 微积分

2.2.1 圆的面积

2.2.2 古典微积分

2.2.3 重建微积分

2.2.4 常用的公式

2.2.5 偏导数

2.2.6 方向导数

2.2.7 链式法则

2.3 概率论

2.3.1 随机变量

2.3.2 条件概率

2.3.3 贝叶斯定理

2.3.4 常见的概率分布

2.4 信息论

2.4.1 信息熵

2.4.2 条件熵

2.4.3 互信息

2.4.4 相对熵(KL散度)

2.4.5 交叉熵

2.5 小结

第3章 初识神经网络

3.1 什么是神经网络

3.1.1 神经网络的历史

3.1.2 神经网络的优势

3.2 神经网络中常见的概念

3.2.1 前向传播算法

3.2.2 损失函数

3.2.3 梯度下降算法

3.2.4 各种梯度下降算法

3.2.5 反向传播算法

3.2.6 过拟合与欠拟合

3.3 动手实现深度学习框架TensorPy

3.3.1 实现计算图

3.3.2 实现Session对象

3.3.3 实现感知器前向传播算法

3.3.4 实现对数损失

3.3.5 实现梯度下降算法与反向传播算法

3.3.6 实现多层感知器

3.4 TensorFlow简介

3.4.1 TensorFlow安装与介绍

3.4.2 TensorFlow基本概念

3.4.3 TensorFlow实现多层感知器

3.4.4 TensorBoard可视化

3.4.5 TensorFlow模型保存方法

3.5 小结

第4章 初识生成对抗网络

4.1 什么是生成对抗网络

4.1.1 什么是GAN

4.1.2 GAN使用范围

4.2 GAN基本原理

4.2.1 GAN模型详情

4.2.2 对抗的本质

4.3 TensorFlow实现朴素GAN

4.3.1 朴素GAN生成MNIST数据集

4.3.2 训练与效果展示

4.4 关于GAN的几个问题

4.4.1 为什么生成器G生成数据需要判别器D介入

4.4.2 为什么判别器D不自己生成数据

4.4.3 为什么选择GAN

4.5 小结

第5章 生成对抗网络的数学原理

5.1 拟合真实分布

5.1.1 最大似然估计

5.1.2 最大似然估计拟合分布

5.1.3 最大似然估计与KL散度的关系

5.2 生成对抗网络

5.2.1 生成器拟合分布

5.2.2 判别器计算分布的差异

5.2.3 GAN的数学推导

5.2.4 GAN的本质

5.3 统一框架F-GAN

5.3.1 f散度

5.3.2 凸共轭

5.3.3 f散度与GAN之间的关系

5.4 GAN训练过程可视化

5.5 小结

第6章 卷积生成对抗网络

6.1 初识卷积神经网络

6.1.1 什么是卷积神经网络

6.1.2 CNN识别图像过程

6.1.3 CNN核心概念

6.2 TensorFlow实现卷积网络

6.2.1 构建CNN计算图

6.2.2 训练CNN网络

6.2.3 Dropout操作

6.2.4 DCGAN:CNN与GAN有机结合

6.2.5 Batch Normalization

6.3 TensorFlow实现DCGAN网络

6.3.1 TensorFlow实现DCGAN的生成器

6.3.2 TensorFlow实现DCGAN的判别器

6.3.3 获得测试样例

6.3.4 构建DCGAN整体

6.3.5 训练DCGAN

6.3.6 RussellCloud使用

6.3.7 结果展示

6.4 小结

第7章 条件生成对抗网络

7.1 如何实现图像间风格转换

7.1.1 传统神经网络的缺陷

7.1.2 普通GAN的缺陷

7.2 条件生成对抗网络

7.2.1 CGAN详解

7.2.2 CGAN训练流程

7.3 ColorGAN的实现

7.3.1 生成器与判别器的构建

7.3.2 图像数据预处理

7.3.3 ColorGAN训练学习

7.3.4 ColorGAN训练结果

7.3.5 图像转图像的讨论

7.4 实现文字转图像

7.4.1 独热向量

7.4.2 fashion-mnist数据集

7.4.3 FashionCGAN判别器和生成器

7.4.4 训练FashionCGAN

7.5 实现句子转图像

7.5.1 word2vec技术

7.5.2 RNN、LSTM与GRU

7.5.3 Skip-Thought Vector

7.5.4 实现Skip-Thought

7.5.5 实现句子转图像

7.6 小结

第8章 循环一致性

8.1 以无监督的方式实现风格转换

8.2 CycleGAN

8.2.1 CycleGAN的架构与目标函数

8.2.2 CycleGAN做的改变

8.2.3 TensorFlow实现CycleGAN生成器与判别器

8.2.4 TensorFlow搭建与训练CycleGAN

8.2.5 效果展示

8.3 StarGAN

8.3.1 StarGAN的结构与目标函数

8.3.2 TensorFlow构建StarGAN模型

8.3.3 构建StarGAN的损失

8.3.4 效果展示

8.4 语义样式不变的图像跨域转换

8.4.1 Domain Transfer Network介绍

8.4.2 DTN代码结构

8.4.3 XGAN介绍

8.5 小结

第9章 改进生成对抗网络

9.1 传统GAN存在的问题

9.1.1 梯度消失

9.1.2 模式崩溃

9.2 Wasserstein GAN

9.2.1 EM距离

9.2.2 EM距离使用在GAN上

9.2.3 EM距离与判别器的关系

9.2.4 TensorFlow实现WGAN

9.3 Improved WGAN(WGAN-GP)

9.3.1 WGAN存在的问题

9.3.2 gradient penalty

9.3.3 TensorFlow实现WGAN-GP

9.4 SN-GAN

9.4.1 SN-GAN介绍

9.4.2 Spectral Normalization方法与SN-GAN

9.4.3 TensorFlow实现SN-GAN

9.5 小结

第10章 渐近增强式生成对抗网络

10.1 堆叠式生成对抗网络StackGAN

10.1.1 StackGAN-v1

10.1.2 棋盘效应

10.1.3 StackGAN-v2

10.1.4 TensorFlow实现StackGAN-v2

10.2 TensorFlow数据处理

10.2.1 placeholder读取数据

10.2.2 Queue方式读取数据

10.2.3 tf.data读取数据

10.3 渐近增长生成对抗网络PGGAN

10.3.1 PGGAN介绍

10.3.2 PGGAN的改进点

10.3.3 TensorFlow实现PGGAN

10.4 小结

第11章 GAN进行特征学习

11.1 近似推断

11.1.1 变分推断思想

11.1.2 平均场

11.2 InfoGAN

11.2.1 数据特征与互信息

11.2.2 InfoGAN数学原理与模型结构

11.2.3 TensorFlow实现InfoGAN

11.2.4 使用InfoGAN生成图像

11.3 VAE-GAN

11.3.1 AutoEncoder自编码器

11.3.2 变分自编码器

11.3.3 数学角度看VAE

11.3.4 TensorFlow实现VAE

11.3.5 VAE与GAN的结合体VAE-GAN

11.3.6 TensorFlow实现VAE-GAN

11.4 小结

第12章 GAN在NLP中的运用

12.1 GAN在文本生成中遇到的困境

12.2 GAN生成离散数据的方法

12.2.1 判别器直接获取生成器的输出

12.2.2 Gumbel-softma×

12.3 强化学习简述

12.3.1 强化学习算法

12.3.2 Policy Gradient

12.3.3 GAN+RL作用于文本生成

12.4 SeqGAN

12.4.1 SeqGAN结构与算法

12.4.2 Highway Network

12.4.3 SeqGAM生成器与rollout结构的实现

12.4.4 SeqGAN中目标LSTM与判别器的实现

12.4.5 SeqGAN中生成器与判别器预训练

12.4.6 SeqGAN对抗训练

12.5 MaskGAN

12.5.1 MaskGAN结构与算法

12.5.2 TensorFlow实现MaskGAN的生成器与判别器

12.5.3 TensorFlow实现MaskGAN的Actor-Critic与目标函数

12.5.4 TensorFlow实现MaskGAN的结构与训练逻辑

12.6 小结

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部