万本电子书0元读

万本电子书0元读

顶部广告

深度学习详解电子书

1.李宏毅老师亲笔推荐,杨小康、周明、叶杰平、邱锡鹏鼎力推荐!  2.数百万次播放的深度学习课程配套书,李宏毅老师亲自赞的源项目,GitHub超10000次Star的源笔记。 3.从Transformer到ChatGPT技术原理一个不落GPT中的T代表的正是Transformer。如何理解这一在深度学习领域具有深远影响的概念?从经典的论文始,逐步深度介绍Transformer的原理。本书包含单独的ChatGPT章节,不仅介绍了ChatGPT的原理,还探讨了我们应当以怎样的态度对待Al的发展。 

售       价:¥

纸质售价:¥59.80购买纸书

38人正在读 | 0人评论 6.3

作       者:王琦、杨毅远、江季 编著

出  版  社:人民邮电出版社有限公司

出版时间:2024-09-01

字       数:23.1万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书根据李宏毅老师“机器学习”公课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括 BERT 和 GPT)等深度学习常见算法,并讲解了对抗攻、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的阶算法. 在理论严谨的基础上,本书保留了公课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节. <br/>【推荐语】<br/>1.李宏毅老师亲笔推荐,杨小康、周明、叶杰平、邱锡鹏鼎力推荐!  2.数百万次播放的深度学习课程配套书,李宏毅老师亲自赞的源项目,GitHub超10000次Star的源笔记。 3.从Transformer到ChatGPT技术原理一个不落GPT中的T代表的正是Transformer。如何理解这一在深度学习领域具有深远影响的概念?从经典的论文始,逐步深度介绍Transformer的原理。本书包含单独的ChatGPT章节,不仅介绍了ChatGPT的原理,还探讨了我们应当以怎样的态度对待Al的发展。 <br/>【作者】<br/>王琦, 上海交通大学人工智能实验室博士研究生,硕士毕业于中国科学院大学.Datawhale成员,《Easy RL:强化学习教程》作者,英特尔边缘计算创新大使,Hugging Face社区志愿者,AI TIME成员.主要研究方向为强化学习、计算机视觉、深度学习.曾获“中国光谷·华为杯”第十九届中国研究生数学建模竞赛二等奖、中国大学生计算机设计大赛二等奖、亚太地区大学生数学建模竞赛(APMCM)二等奖和“挑战杯”全国大学生课外学术科技作品竞赛江苏省选拔赛二等奖等荣誉,发表SCI/EI论文多篇. 杨毅远, 牛津大学计算机系博士研究生,硕士毕业于清华大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为时间序列、数据挖掘、智能传感系统,深度学习.曾获国家奖学金、北京市优秀毕业生、清华大学优秀硕士学位论文、全国大学生智能汽车竞赛总冠军等荣誉,发表SCI/EI论文多篇. 江季, 网易高级算法工程师,硕士毕业于北京大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为强化学习、深度学习、大模型、机器人等.曾获得国家奖学金、上海市优秀毕业生等荣誉,取得强化学习与游戏AI等相关专利多项.<br/>
目录展开

内容提要

致谢

前言

资源与支持

主要符号表

第1章 机器学习基础

1.1 案例学习

1.2 线性模型

1.2.1 分段线性曲线

1.2.2 模型变形

1.2.3 机器学习框架

第2章 实践方法论

2.1 模型偏差

2.2 优化问题

2.3 过拟合

2.4 交叉验证

2.5 不匹配

参考资料

第3章 深度学习基础

3.1 局部最小值与鞍点

3.1.1 临界点及其种类

3.1.2 判断临界值种类的方法

3.1.3 逃离鞍点的方法

3.2 批量和动量

3.2.1 批量大小对梯度下降法的影响

3.2.2 动量法

3.3 自适应学习率

3.3.1 AdaGrad

3.3.2 RMSProp

3.3.3 Adam

3.4 学习率调度

3.5 优化总结

3.6 分类

3.6.1 分类与回归的关系

3.6.2 带有 softmax 函数的分类

3.6.3 分类损失

3.7 批量归一化

3.7.1 放入深度神经网络

3.7.2 测试时的批量归一化

3.7.3 内部协变量偏移

参考资料

第4章 卷积神经网络

4.1 观察1:检测模式不需要整幅图像

4.2 简化1:感受野

4.3 观察2:同样的模式可能出现在图像的不同区域

4.4 简化2:共享参数

4.5 简化1和简化2的总结

4.6 观察3:下采样不影响模式检测

4.7 简化3:汇聚

4.8 卷积神经网络的应用:下围棋

参考资料

第5章 循环神经网络

5.1 独热编码

5.2 什么是RNN

5.3 RNN架构

5.4 其他RNN

5.4.1 Elman 网络 和 Jordan 网络

5.4.2 双向循环神经网络

5.4.3 LSTM

5.4.4 LSTM举例

5.4.5 LSTM运算示例

5.5 LSTM网络原理

5.6 RNN的学习方式

5.7 如何解决RNN的梯度消失或梯度爆炸问题

5.8 RNN的其他应用

5.8.1 多对一序列

5.8.2 多对多序列

5.8.3 序列到序列

参考资料

第6章 自注意力机制

6.1 输入是向量序列的情况

6.1.1 类型1:输入与输出数量相同

6.1.2 类型2:输入是一个序列,输出是一个标签

6.1.3 类型3:序列到序列任务

6.2 自注意力机制的运作原理

6.3 多头自注意力

6.4 位置编码

6.5 截断自注意力

6.6 对比自注意力与卷积神经网络

6.7 对比自注意力与循环神经网络

参考资料

第7章 Transformer

7.1 序列到序列模型

7.1.1 语音识别、机器翻译与语音翻译

7.1.2 语音合成

7.1.3 聊天机器人

7.1.4 问答任务

7.1.5 句法分析

7.1.6 多标签分类

7.2 Transformer结构

7.3 Transformer编码器

7.4 Transformer解码器

7.4.1 自回归解码器

7.4.2 非自回归解码器

7.5 编码器-解码器注意力

7.6 Transformer的训练过程

7.7 序列到序列模型训练常用技巧

7.7.1 复制机制

7.7.2 引导注意力

7.7.3 束搜索

7.7.4 加入噪声

7.7.5 使用强化学习训练

7.7.6 计划采样

参考资料

第8章 生成模型

8.1 生成对抗网络

8.1.1 生成器

8.1.2 判别器

8.2 生成器与判别器的训练过程

8.3 GAN的应用案例

8.4 GAN的理论介绍

8.5 WGAN算法

8.6 GAN训练的难点与技巧

8.7 GAN的性能评估方法

8.8 条件型生成

8.9 CycleGAN

参考资料

第9章 扩散模型

9.1 扩散模型生成图片的过程

9.2 去噪模块

9.3 训练噪声预测器

第10章 自监督学习

10.1 BERT

10.1.1 BERT的使用方式

10.1.2 BERT有用的原因

10.1.3 BERT的变体

10.2 GPT

参考资料

第11章 自编码器

11.1 自编码器的概念

11.2 为什么需要自编码器

11.3 去噪自编码器

11.4 自编码器应用之特征解耦

11.5 自编码器应用之离散隐表征

11.6 自编码器的其他应用

第12章 对抗攻击

12.1 对抗攻击简介

12.2 如何进行网络攻击

12.3 快速梯度符号法

12.4 白箱攻击与黑箱攻击

12.5 其他模态数据被攻击案例

12.6 现实世界中的攻击

12.7 防御方式中的被动防御

12.8 防御方式中的主动防御

第13章 迁移学习

13.1 领域偏移

13.2 领域自适应

13.3 领域泛化

参考资料

第14章 强化学习

14.1 强化学习的应用

14.1.1 玩电子游戏

14.1.2 下围棋

14.2 强化学习框架

14.2.1 第1步:定义函数

14.2.2 第2步:定义损失

14.2.3 第3步:优化

14.3 评价动作的标准

14.3.1 使用即时奖励作为评价标准

14.3.2 使用累积奖励作为评价标准

14.3.3 使用折扣累积奖励作为评价标准

14.3.4 使用折扣累积奖励减去基线作为评价标准

14.3.5 Actor-Critic

14.3.6 优势 Actor-Critic

参考资料

第15章 元学习

15.1 元学习的概念

15.2 元学习的三个步骤

15.3 元学习与机器学习

15.4 元学习的实例算法

15.5 元学习的应用

参考资料

第16章 终身学习

16.1 灾难性遗忘

16.2 终身学习的评估方法

16.3 终身学习问题的主要解法

第17章 网络压缩

17.1 网络剪枝

17.2 知识蒸馏

17.3 参数量化

17.4 网络架构设计

17.5 动态计算

参考资料

第18章 可解释性机器学习

18.1 可解释性人工智能的重要性

18.2 决策树模型的可解释性

18.3 可解释性机器学习的目标

18.4 可解释性机器学习中的局部解释

18.5 可解释性机器学习中的全局解释

18.6 扩展与小结

参考资料

第19章 ChatGPT

19.1 ChatGPT简介和功能

19.2 对ChatGPT的误解

19.3 ChatGPT背后的关键技术——预训练

19.4 ChatGPT带来的研究问题

索引

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部