万本电子书0元读

万本电子书0元读

顶部广告

破解深度学习(核心篇):模型算法与实现电子书

1.基于教育博主梗直哥创作的人工智能系列视频和课程编写 2.配套视频(付费内容)助力学习。 3.涵盖当前深度学习的热领域。 4.知乎、B站、GZH、知识星球等平台设有交流互动渠道。

售       价:¥

纸质售价:¥104.30购买纸书

13人正在读 | 0人评论 6.8

作       者:瞿炜 著

出  版  社:人民邮电出版社有限公司

出版时间:2024-10-01

字       数:22.3万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书旨在采用一种符合读者认知角度且能提升其学习效率的方式来讲解深度学习背后的核心知识、原理和内在逻辑。 经过基础篇的学习,想必你已经对深度学习的总体框架有了初步的了解和认识,掌握了深度神经网络从核心概念、常见问题到典型网络的基本知识。本书为核心篇,将带领读者实现从门到阶、从理论到实战的跨越。全书共7章,前三章包括复杂CNN、RNN和注意力机制网络,深详解各类主流模型及其变体;第4章介绍这三类基础模型的组合体,即概率生成模型;第5章和第6章着重介绍这些复杂模型在计算机视觉和自然语言处理两大最常见领域的应用;第7章讲解生成式大语言模型的内在原理并对其发展趋势予以展望。 本书系统全面,深浅出,且辅以生活中的案例行类比,以此降低学习难度,能够帮助读者迅速掌握深度学习的基础知识。本书适合有志于投身人工智能领域的人员阅读,也适合作为高等院校人工智能相关专业的教学用书。<br/>【推荐语】<br/>1.基于教育博主梗直哥创作的人工智能系列视频和课程编写 2.配套视频(付费内容)助力学习。 3.涵盖当前深度学习的热领域。 4.知乎、B站、GZH、知识星球等平台设有交流互动渠道。<br/>【作者】<br/>·瞿炜,美国伊利诺伊大学人工智能博士,哈佛大学、京都大学客座教授;前中国科学院大学教授、模式识别国家重实验室客座研究员;国家部委特聘专家、重实验室学术委员会委员;国际期刊编委,多个学术期刊审稿人及国际学术会议委员。在人工智能业界拥有二十余年的技术积累和实践经验,曾先后在互联网、医疗、安防、教育等行业的多家世界 500 强企业担任高管。他是授业解惑科技有限公司的创始人,以及多家人工智能、金融公司的联合创始人,还是一名天使投资人。凭借多年的专业积淀和卓越的行业洞察力,瞿炜博士近年来致力于人工智能教育事业的发展。作为教育博主,他擅长用通俗易懂的表达方式结合直观生动的模型动画,讲述复杂的人工智能理论与算法;创作的人工智能系列视频和课程在 B 站(账号:梗直哥丶)/知乎/GZH/视频号(账号:梗直哥丶)等平台深受学生们的欢迎和认可,累计访问量超数千万人次。 ·李力,人工智能专家,长期致力于计算机视觉和强化学习领域的研究与实践。曾在多家科技企业担任资深算法工程师,拥有十余年行业经验,具备丰富的技术能力和深厚的理论知识。在他的职业生涯中,李力参与并领导了众多深度学习和强化学习的核心技术项目,有效地应用先模型解决图像识别、目标检测、自然语言处理、机器人研发等多个领域的实际问题。 ·杨洁,人工智能和自然语言处理领域资深应用专家,在自然语言理解、基于知识的智能服务、跨模态语言智能、智能问答系统等技术领域具有深厚的实战背景。她曾在教育、医疗等行业的企业担任关键职位,拥有十年以上的行业管理经验,成功领导并实施了多个创新项目,擅长引领团队将复杂的理论转化为实际应用,解决行业中的关键问题。<br/>
目录展开

内容提要

作者简介

前言

资源与支持

第1章 复杂卷积神经网络:捕获精细特征

1.1 AlexNet

1.1.1 AlexNet简介

1.1.2 代码实现

1.1.3 模型训练

1.1.4 小结

1.2 VGGNet

1.2.1 VGGNet简介

1.2.2 代码实现

1.2.3 模型训练

1.2.4 小结

1.3 批归一化方法

1.3.1 批归一化简介

1.3.2 代码实现

1.3.3 模型训练

1.3.4 小结

1.4 GoogLeNet

1.4.1 GoogLeNet简介

1.4.2 Inception结构

1.4.3 GoogLeNet的模型结构

1.4.4 代码实现

1.4.5 模型训练

1.4.6 小结

1.5 ResNet

1.5.1 ResNet简介

1.5.2 残差结构

1.5.3 ResNet模型结构

1.5.4 代码实现

1.5.5 模型训练

1.5.6 小结

1.6 DenseNet

1.6.1 DenseNet简介

1.6.2 代码实现

1.6.3 模型训练

1.6.4 小结

第2章 复杂循环神经网络:为记忆插上翅膀

2.1 双向RNN和深度RNN

2.1.1 双向RNN

2.1.2 深度RNN

2.1.3 小结

2.2 RNN长期依赖问题

2.2.1 什么是长期依赖

2.2.2 长期记忆失效原因

2.2.3 截断时间步

2.2.4 小结

2.3 长短期记忆网络及其变体

2.3.1 核心思想

2.3.2 网络结构

2.3.3 遗忘门

2.3.4 输入门

2.3.5 输出门

2.3.6 门控循环单元

2.3.7 小结

2.4 四种RNN代码实现

2.4.1 模型定义

2.4.2 模型实验

2.4.3 效果对比

2.4.4 小结

第3章 复杂注意力神经网络:大模型的力量

3.1 BERT模型

3.1.1 3种模型结构

3.1.2 词嵌入

3.1.3 预训练:掩码语言模型

3.1.4 预训练:下一句预测

3.1.5 微调

3.1.6 优缺点

3.1.7 小结

3.2 GPT系列模型

3.2.1 GPT-1模型思想和结构

3.2.2 GPT-1无监督预训练和监督微调

3.2.3 GPT-1数据集和性能特点

3.2.4 GPT-2模型思想和结构

3.2.5 GPT-2 数据集和性能特点

3.2.6 GPT-3 模型思想和结构

3.2.7 基于情景学习的对话模式

3.2.8 GPT-3 数据集和性能特点

3.2.9 小结

3.3 T5模型

3.3.1 基本思想

3.3.2 词表示发展史

3.3.3 模型结构

3.3.4 预训练流程

3.3.5 预训练数据集

3.3.6 模型版本

3.3.7 小结

3.4 ViT模型

3.4.1 Transformer的好处

3.4.2 模型结构

3.4.3 数据预处理

3.4.4 图片块和位置嵌入

3.4.5 Transformer编码器

3.4.6 MLP头

3.4.7 性能对比

3.4.8 小结

3.5 Swin Transformer模型

3.5.1 要解决的问题

3.5.2 模型结构

3.5.3 输入预处理

3.5.4 四个阶段

3.5.5 Swin Transformer块

3.5.6 窗口注意力

3.5.7 计算复杂度分析

3.5.8 移动窗口多头自注意力机制

3.5.9 特征图循环移位计算

3.5.10 masked MSA操作

3.5.11 小结

第4章 深度生成模型:不确定性的妙用

4.1 蒙特卡洛方法

4.1.1 采样

4.1.2 重要性采样

4.1.3 马尔可夫链蒙特卡洛方法

4.1.4 小结

4.2 变分推断方法

4.2.1 参数估计

4.2.2 问题定义

4.2.3 算法思路

4.2.4 KL散度

4.2.5 公式推导

4.2.6 高斯混合模型实例

4.2.7 与MCMC方法对比

4.2.8 小结

4.3 变分自编码器

4.3.1 降维思想

4.3.2 自编码器

4.3.3 VAE基本思想

4.3.4 隐空间可视化

4.3.5 神经网络实现

4.3.6 重新参数化技巧

4.3.7 小结

4.4 生成对抗网络

4.4.1 什么是对抗生成思想

4.4.2 模型结构

4.4.3 判别器

4.4.4 生成器

4.4.5 训练流程

4.4.6 损失函数

4.4.7 小结

4.5 扩散模型

4.5.1 模型对比

4.5.2 基本思想

4.5.3 前向过程

4.5.4 逆向过程

4.5.5 损失函数

4.5.6 损失函数的参数化

4.5.7 训练流程

4.5.8 小结

4.6 深度生成模型项目实战

4.6.1 代码实现

4.6.2 VAE模型

4.6.3 GAN模型

4.6.4 小结

第5章 计算机视觉:让智慧可见

5.1 自定义数据加载

5.1.1 数据加载

5.1.2 数据准备

5.1.3 ImageFolder方法

5.1.4 自定义数据集示例1

5.1.5 自定义数据集示例2

5.1.6 小结

5.2 图像数据增强

5.2.1 数据增强简介

5.2.2 代码准备

5.2.3 常见图像数据增强方法

5.2.4 小结

5.3 迁移学习

5.3.1 迁移学习简介

5.3.2 ResNet预训练模型

5.3.3 ViT预训练模型

5.3.4 小结

5.4 经典计算机视觉数据集

5.4.1 数据集简介

5.4.2 小结

5.5 项目实战:猫狗大战

5.5.1 项目简介

5.5.2 数据准备

5.5.3 模型训练

5.5.4 模型预测

5.5.5 小结

第6章 自然语言处理:人机交互懂你所说

6.1 词嵌入和Word2Vec

6.1.1 独热编码

6.1.2 Word2Vec

6.1.3 Gensim代码实现

6.1.4 小结

6.2 词义搜索和句义表示

6.2.1 文本搜索方法

6.2.2 正则搜索

6.2.3 词义搜索

6.2.4 距离计算方法

6.2.5 句子向量

6.2.6 代码实现

6.2.7 常见应用

6.2.8 小结

6.3 预训练模型

6.3.1 预训练和迁移学习

6.3.2 迁移学习族谱

6.3.3 大语言模型

6.3.4 LLM进化方向

6.3.5 BERT系列进化

6.3.6 GPT系列进化

6.3.7 多模态模型

6.3.8 存在的问题

6.3.9 小结

6.4 Hugging Face库介绍

6.4.1 核心库

6.4.2 官网介绍

6.4.3 代码调用

6.4.4 小结

6.5 NLP数据集

6.5.1 预训练数据集

6.5.2 下游任务数据集

6.5.3 数据集使用

6.5.4 小结

6.6 项目实战:电影评论情感分析

6.6.1 Pipeline

6.6.2 模型实战

6.6.3 直接微调

6.6.4 小结

第7章 多模态生成式人工智能:引领智能新时代

7.1 CLIP模型

7.1.1 计算机视觉研究新范式

7.1.2 对比学习预训练

7.1.3 图像编码器

7.1.4 文本编码器

7.1.5 数据收集

7.1.6 图像分类

7.1.7 模型训练和优缺点分析

7.1.8 小结

7.2 DALL·E系列模型

7.2.1 初代模型结构

7.2.2 dVAE模块

7.2.3 Transformer模块

7.2.4 图像生成过程

7.2.5 DALL·E 2 模型结构

7.2.6 CLIP模块

7.2.7 prior模块

7.2.8 decoder模块

7.2.9 DALL·E 2 推理过程

7.2.10 模型效果

7.2.11 局限分析

7.2.12 小结

7.3 InstructGPT模型

7.3.1 GPT系列回顾

7.3.2 指示学习和提示学习

7.3.3 人工反馈强化学习

7.3.4 训练流程

7.3.5 数据集采集

7.3.6 监督微调

7.3.7 奖励模型

7.3.8 强化学习

7.3.9 优缺点分析

7.3.10 小结

7.4 深度学习最新发展趋势分析

7.4.1 趋势1:多模态融合

7.4.2 趋势2:AIGC大爆发

7.4.3 趋势3:大小模型分化

7.4.4 趋势4:概率分布模型的大发展

7.4.5 趋势5:深度强化学习的春天

7.4.6 更多展望

7.5 下一步学习的建议

7.5.1 动手实践

7.5.2 PyTorch官方文档和课程

7.5.3 推荐网站

7.5.4 多读论文

7.5.5 关于强化学习

7.5.6 继续加油

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部