万本电子书0元读

万本电子书0元读

顶部广告

深度学习之美:AI时代的数据处理与最佳实践电子书

售       价:¥

纸质售价:¥118.20购买纸书

1270人正在读 | 0人评论 6.7

作       者:张玉宏

出  版  社:电子工业出版社

出版时间:2018-06-01

字       数:38.4万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:此类商品不支持退换货,不支持下载打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
深度学习是人工智能的前沿技术。本书深入浅出地介绍了深度学习的相关理论和实践,全书共分16章,采用理论和实践双主线写作方式。 第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。 深度学习是人工智能的前沿技术。本书深浅出地介绍了深度学习的相关理论和实践,全书共分16章,采用理论和实践双主线写作方式。 第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。
【推荐语】
√零门。本书在介绍深度学习时,也介绍了Python、TensorFlow、M-P模型、感知机等神经网络等基础知识,从而可以让读者零基础门。 √高可读。有别于其他同类书籍的深奥难懂,本书配合近300幅手绘图片,一图胜千言,辅以大量的哲理故事,通俗易懂,独辟蹊径。 √重实战。除了理论部分的讲解不落窠臼,本书还重视实战,列举了大量具有启发意义的实战案例,循序渐,让读者通过实战获得成就感。 √抓前沿。本书紧抓领域前沿,Geoffrey Hinton的新研究成果——神经胶囊网络,本书详细解读,辅以实战,让读者能够站在科研前沿。
【作者】
张玉宏,1980年3月生,河南罗山人,2012年博士毕业于电子科技大学,2009年~2011年在美国西北大学(Northwestern University)访学,电子科技大学博士后。阿里云栖社区认证技术专栏作家。发表SCI/EI论文10余篇,出版《品味大数据》等畅销著作2部,参编英文学术专著2部。主要研究方向为高性能计算、大数据、机器学习等。
目录展开

内容简介

推荐序一 通俗也是一种美德

推荐序二 技术,也可以“美”到极致

自序 深度学习的浅度梦想

第1章 一入侯门“深”似海,深度学习深几许

1.1 深度学习的巨大影响

1.2 什么是学习

1.3 什么是机器学习

1.4 机器学习的4个象限

1.5 什么是深度学习

1.6 “恋爱”中的深度学习

1.7 深度学习的方法论

1.8 有没有浅层学习

1.9 本章小结

1.10 请你思考

参考资料

第2章 人工“碳”索意犹尽,智能“硅”来未可知

2.1 信数据者得永生吗

2.2 人工智能的“江湖定位”

2.3 深度学习的归属

2.4 机器学习的形式化定义

2.5 为什么要用神经网络

2.6 人工神经网络的特点

2.7 什么是通用近似定理

2.8 本章小结

2.9 请你思考

参考资料

第3章 “机器学习”三重门,“中庸之道”趋若人

3.1 监督学习

3.2 非监督学习

3.3 半监督学习

3.4 从“中庸之道”看机器学习

3.5 强化学习

3.6 本章小结

3.7 请你思考

参考资料

第4章 人生苦短对酒歌,我用Python乐趣多

4.1 Python概要

4.2 Python的版本之争

4.3 Python环境配置

4.4 Python编程基础

4.5 本章小结

4.6 请你思考

参考资料

第5章 机器学习终觉浅,Python带我来实践

5.1 线性回归

5.2 k-近邻算法

5.3 本章小结

5.4 请你思考

参考资料

第6章 神经网络不胜语,M-P模型似可寻

6.1 M-P神经元模型是什么

6.2 模型背后的那些人和事

6.3 激活函数是怎样的一种存在

6.4 什么是卷积函数

6.5 本章小结

6.6 请你思考

参考资料

第7章 Hello World感知机,懂你我心才安息

7.1 网之初,感知机

7.2 感知机名称的由来

7.3 感性认识“感知机”

7.4 感知机是如何学习的

7.5 感知机训练法则

7.6 感知机的几何意义

7.7 基于Python的感知机实战

7.8 感知机的表征能力

7.9 本章小结

7.10 请你思考

参考资料

第8章 损失函数减肥用,神经网络调权重

8.1 多层网络解决“异或”问题

8.2 感性认识多层前馈神经网络

8.3 是浅而“胖”好,还是深而“瘦”佳

8.4 分布式特征表达

8.5 丢弃学习与集成学习

8.6 现实很丰满,理想很骨感

8.7 损失函数的定义

8.8 热力学定律与梯度弥散

8.9 本章小结

8.10 请你思考

参考资料

第9章 山重水复疑无路,最快下降问梯度

9.1 “鸟飞派”还飞不

9.2 1986年的那篇神作

9.3 多层感知机网络遇到的大问题

9.4 神经网络结构的设计

9.5 再议损失函数

9.6 什么是梯度

9.7 什么是梯度递减

9.8 梯度递减的线性回归实战

9.9 什么是随机梯度递减

9.10 利用SGD解决线性回归实战

9.11 本章小结

9.12 请你思考

参考资料

第10章 BP算法双向传,链式求导最缠绵

10.1 BP算法极简史

10.2 正向传播信息

10.3 求导中的链式法则

10.4 误差反向传播

10.5 BP算法实战详细解释

10.6 本章小结

10.7 请你思考

参考资料

第11章 一骑红尘江湖笑,TensorFlow谷歌造

11.1 TensorFlow概述

11.2 深度学习框架比较

11.3 TensorFlow的安装

11.4 Jupyter Notebook的使用

11.5 TensorFlow中的基础语法

11.6 手写数字识别MNIST

11.7 TensorFlow中的Eager执行模式

11.8 本章小结

11.9 请你思考

参考资料

第12章 全面连接困何处,卷积网络显神威

12.1 卷积神经网络的历史[1]

12.2 卷积神经网络的概念[3]

12.3 图像处理中的卷积

12.4 卷积神经网络的结构[7]

12.5 卷积层要义

12.6 细说激活层[12]

12.7 详解池化层

12.8 勿忘全连接层

12.9 本章小结

12.10 请你思考

参考资料

第13章 纸上谈兵终觉浅,绝知卷积要编程

13.1 TensorFlow的CNN架构

13.2 卷积层的实现

13.3 激活函数的使用

13.4 池化层的实现

13.5 规范化层

13.6 卷积神经网络在MNIST分类器中的应用

13.7 经典神经网络——AlexNet的实现

13.8 本章小结

13.9 请你思考

参考资料

第14章 循环递归RNN,序列建模套路深

14.1 你可能不具备的一种思维

14.2 标准神经网络的缺陷所在

14.3 RNN简史

14.4 RNN的理论基础

14.5 RNN的结构

14.6 循环神经网络的训练

14.7 基于RNN的TensorFlow实战——正弦序列预测

14.8 本章小结

14.9 请你思考

参考资料

第15章 LSTM长短记,长序依赖可追忆

15.1 遗忘是好事还是坏事

15.2 施密德胡伯是何人

15.3 为什么需要LSTM

15.4 拆解LSTM

15.5 LSTM的前向计算

15.6 LSTM的训练流程

15.7 自然语言处理的一个假设

15.8 词向量表示方法

15.9 自然语言处理的统计模型

15.10 基于Penn Tree Bank的自然语言处理实战

15.11 本章小结

15.12 请你思考

参考资料

第16章 卷积网络虽动人,胶囊网络更传“神”

16.1 从神经元到神经胶囊

16.2 卷积神经网络面临的挑战

16.3 神经胶囊的提出

16.4 神经胶囊理论初探

16.5 神经胶囊的实例化参数

16.6 神经胶囊的工作流程

16.7 CapsNet的验证与实验

16.8 神经胶囊网络的TensorFlow实现

16.9 本章小结

16.10 请你思考

16.11 深度学习美在何处

参考资料

后记

索引

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部