万本电子书0元读

万本电子书0元读

顶部广告

AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型电子书

(1)作者背景资深:作者是人工智能领域的资深专家,在大数据和人工智能领域深耕20余年,对AIGC有深研究。 (2)知识体系全面:本书包含AIGC所涉及的各方面技术,从基础知识到各种流行的大模型,从技术原理到应用实践。 (3)读者无需AI基础:本书专为没有AI基础的技术工程师量身定做,通过由浅深的讲解方式,使读者能够轻松门并逐步掌握AIGC。 (4)实践案例丰富:书中提供大量实践案例和代码示例,读者可通过PyTorch等工具构建和训练各种大模型。

售       价:¥

纸质售价:¥96.70购买纸书

12人正在读 | 0人评论 6.7

作       者:吴茂贵

出  版  社:机械工业出版社

出版时间:2024-06-07

字       数:19.9万

所属分类: 科技 > 计算机/网络 > 计算机理论与教程

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书旨在帮助没有任何人工智能技术基础的工程师们全面掌握AIGC的底层技术原理,以及大语言模型、扩散模型和多模态模型的原理与实践。本书的核心价值是,首先为想学习各种大模型的读者下坚实的技术基础,然后再根据自己的研究方向展深的学习,达到事半功倍的效果。通过阅读本书,您将学习如下内容:(1)AIGC技术基础深了解神经网络的基础知识,包括卷积神经网络和循环神经网络的原理与应用。并通过学习神经网络的优化方法,您将掌握如何优化和提升神经网络的性能。 (2)图像生成模型包括从自动编码器(AE)、变分自编码器(VAE)、生成对抗网络(GAN)等图像生成模型。通过学习优化方法,如WGAN、WGAN-WP、StyleGAN等,您将掌握如何提高图像生成模型的质量和稳定性。同时,了解图像生成模型的应用,如迁移学习、风格迁移等,让您轻松实现个性化创作。此外,还将带您深了解DDPM、DDIM等扩散模型的前沿技术,为您展现图像生成技术的最新成果,探索更加出色的生成效果和表达方式。 (3)语言生成模型了解注意力机制、Transformer架构等基础知识,深探索GAT系列、大语言模型(如ChatGPT),让您掌握自然语言处理的精髓。 (4)多模态模型了解CLIP、Stable Diffusion、DALL.E等多模态模型,触碰视觉和文字的奇妙交织,领略多模态智能的广阔前景。<br/>【推荐语】<br/>(1)作者背景资深:作者是人工智能领域的资深专家,在大数据和人工智能领域深耕20余年,对AIGC有深研究。 (2)知识体系全面:本书包含AIGC所涉及的各方面技术,从基础知识到各种流行的大模型,从技术原理到应用实践。 (3)读者无需AI基础:本书专为没有AI基础的技术工程师量身定做,通过由浅深的讲解方式,使读者能够轻松门并逐步掌握AIGC。 (4)实践案例丰富:书中提供大量实践案例和代码示例,读者可通过PyTorch等工具构建和训练各种大模型。 (5)配套资源丰富:为方便读者学习,本书配有视频讲解、教学PPT、代码和数据,这些资源均可免费获取,让读者学习事半功倍。<br/>【作者】<br/>吴茂贵 资深人工智能技术专家和大数据技术专家,在BI、数据挖掘与分析、数据仓库、机器学习、深度学习等领域有超过20年的实战经验。近年来,一直专注于人工智能领域的工程实践,对大模型相关的技术和应用有深的研究。 著有多部人工智能领域的畅销书: 《Python深度学习:基于TensorFlow》 (第1版和第2版) 《Python深度学习:基于Pytorch》 (第1版和第2版) 《深浅出Embedding》 《深度实践Spark机器学习》 <br/>
目录展开

前折页

书名页

前言

第1章 AIGC概述

1.1 AIGC的主要技术

1.1.1 语言生成方面的技术

1.1.2 视觉生成方面的技术

1.1.3 多模态方面的技术

1.2 生成模型与判别模型

1.2.1 生成模型

1.2.2 判别模型

1.3 生成模型的原理

1.3.1 生成模型的框架

1.3.2 生成模型的概率表示

1.3.3 生成模型的目标函数

1.3.4 生成模型的挑战及解决方法

1.4 表示学习

1.4.1 表示学习的直观理解

1.4.2 表示学习的常用方式

1.4.3 表示学习与特征工程的区别

1.4.4 图像的表示学习

1.4.5 文本的表示学习

1.4.6 多模态的表示学习

1.4.7 表示学习的融合技术

1.4.8 如何衡量表示学习的优劣

1.5 表示学习的逆过程

第2章 深度神经网络

2.1 用PyTorch构建深度神经网络

2.1.1 神经网络的核心组件

2.1.2 构建神经网络的主要工具

2.1.3 构建模型

2.1.4 训练模型

2.2 用PyTorch实现神经网络实例

2.2.1 准备数据

2.2.2 可视化源数据

2.2.3 构建模型

2.2.4 训练模型

2.3 用PyTorch Lightning实现神经网络实例

2.4 构建卷积神经网络

2.4.1 全连接层

2.4.2 卷积层

2.4.3 卷积核

2.4.4 步幅

2.4.5 填充

2.4.6 多通道上的卷积

2.4.7 激活函数

2.4.8 卷积函数

2.4.9 转置卷积

2.4.10 特征图与感受野

2.4.11 卷积层如何保留图像的空间信息

2.4.12 现代经典网络

2.4.13 可变形卷积

2.5 构建循环神经网络

2.5.1 从神经网络到有隐含状态的循环神经网络

2.5.2 使用循环神经网络构建语言模型

2.5.3 多层循环神经网络

2.5.4 现代经典循环神经网络

2.6 迁移学习

2.6.1 迁移学习简介

2.6.2 微调预训练模型

2.7 深度学习常用的归一化方法

2.7.1 归一化方法简介

2.7.2 归一化的原理

2.7.3 归一化的代码实现

2.8 权重初始化

2.8.1 为何要进行权重初始化

2.8.2 权重初始化方法

2.9 PyTorch常用的损失函数

2.10 深度学习常用的优化算法

2.10.1 传统梯度更新算法

2.10.2 批量随机梯度下降法

2.10.3 动量算法

2.10.4 Nesterov动量算法

2.10.5 AdaGrad算法

2.10.6 RMSProp算法

2.10.7 Adam算法

2.10.8 各种优化算法比较

第3章 变分自编码器

3.1 自编码器简介

3.1.1 构建自编码器

3.1.2 构建编码器

3.1.3 构建解码器

3.1.4 定义损失函数及优化器

3.1.5 分析自编码器

3.2 变分自编码器简介

3.2.1 变分自编码器的直观理解

3.2.2 变分自编码器的原理

3.3 构建变分自编码器

3.3.1 构建编码器

3.3.2 构建解码器

3.3.3 损失函数

3.3.4 分析变分自编码器

3.4 使用变分自编码器生成面部图像

3.4.1 编码器

3.4.2 解码器

3.4.3 进一步分析变分自编码器

3.4.4 生成新头像

第4章 生成对抗网络

4.1 GAN模型简介

4.1.1 GAN的直观理解

4.1.2 GAN的原理

4.1.3 GAN的训练过程

4.2 用GAN从零开始生成图像

4.2.1 判别器

4.2.2 生成器

4.2.3 损失函数

4.2.4 训练模型

4.2.5 可视化结果

4.3 GAN面临的问题

4.3.1 损失振荡

4.3.2 模型坍塌的简单实例

4.3.3 GAN模型坍塌的原因

4.3.4 避免GAN模型坍塌的方法

4.4 WGAN

4.4.1 改进方向和效果

4.4.2 Wasserstein距离的优越性

4.4.3 WGAN的损失函数代码

4.4.4 WGAN的其他核心代码

4.5 WGAN-GP

4.5.1 权重裁剪的隐患

4.5.2 梯度惩罚损失

4.5.3 WGAN-GP的训练过程

4.5.4 WGAN-GP的损失函数代码

第5章 StyleGAN模型

5.1 ProGAN简介

5.2 StyleGAN架构

5.3 StyleGAN的其他算法

5.4 用PyTorch从零开始实现StyleGAN

5.4.1 构建生成网络

5.4.2 构建判别器网络

5.4.3 损失函数

5.5 StyleGAN的最新进展

5.5.1 StyleGAN2简介

5.5.2 StyleGAN3简介

5.5.3 StyleGAN与DeepDream模型的异同

5.6 DragGAN简介

第6章 风格迁移

6.1 DeepDream模型

6.1.1 DeepDream的原理

6.1.2 DeepDream算法的流程

6.1.3 使用PyTorch实现DeepDream

6.2 普通风格迁移

6.2.1 内容损失

6.2.2 风格损失

6.2.3 使用PyTorch实现神经网络风格迁移

6.3 使用PyTorch实现图像修复

6.3.1 网络结构

6.3.2 损失函数

6.3.3 图像修复实例

6.4 风格迁移与StyleGAN模型

第7章 注意力机制

7.1 注意力机制简介

7.1.1 两种常见的注意力机制

7.1.2 来自生活的注意力

7.1.3 注意力机制的本质

7.2 带注意力机制的编码器-解码器架构

7.2.1 引入注意力机制

7.2.2 计算注意力分配概率分布值

7.3 自注意力

7.3.1 单层自注意力

7.3.2 多层自注意力

7.3.3 多头自注意力

7.3.4 自注意力与卷积网络、循环网络的比较

7.4 如何训练含自注意力的模型

7.4.1 将标记向量化

7.4.2 添加位置编码

7.4.3 逆嵌入过程

7.5 交叉注意力

7.5.1 Transformer解码器中的交叉注意力

7.5.2 Stable Diffusion解码器中的交叉注意力

7.5.3 交叉注意力与自注意力的异同

第8章 Transformer模型

8.1 Transformer模型的直观理解

8.1.1 顶层设计

8.1.2 嵌入和向量化

8.1.3 位置编码

8.1.4 自注意力

8.1.5 掩码

8.1.6 多头注意力

8.1.7 残差连接

8.1.8 层归一化

8.1.9 解码器的输出

8.1.10 多层叠加

8.2 用PyTorch从零开始实现Transformer

8.2.1 构建编码器-解码器架构

8.2.2 构建编码器

8.2.3 构建解码器

8.2.4 构建多头注意力

8.2.5 构建前馈神经网络层

8.2.6 预处理输入数据

8.2.7 构建完整网络

8.2.8 训练模型

8.2.9 一个简单实例

第9章 大语言模型

9.1 大语言模型简介

9.2 可视化GPT原理

9.2.1 GPT简介

9.2.2 GPT的整体架构

9.2.3 GPT模型架构

9.2.4 GPT-2与BERT的多头注意力的区别

9.2.5 GPT-2的输入

9.2.6 GPT-2计算遮掩自注意力的详细过程

9.2.7 GPT-2的输出

9.2.8 GPT-1与GPT-2的异同

9.3 GPT-3简介

9.4 可视化BERT原理

9.4.1 BERT的整体架构

9.4.2 BERT的输入

9.4.3 遮掩语言模型

9.4.4 预测下一个句子

9.4.5 微调

9.4.6 使用特征提取方法

9.5 用PyTorch实现BERT

9.5.1 BERTEmbedding类的代码

9.5.2 TransformerBlock类的代码

9.5.3 构建BERT的代码

9.6 用GPT-2生成文本

9.6.1 下载GPT-2预训练模型

9.6.2 用贪心搜索进行解码

9.6.3 用束搜索进行解码

9.6.4 用采样进行解码

9.6.5 用Top-K采样进行解码

9.6.6 用Top-p采样进行解码

9.6.7 用综合方法进行解码

第10章 ChatGPT模型

10.1 ChatGPT简介

10.1.1 ChatGPT核心技术

10.1.2 InstructGPT和ChatGPT的训练过程

10.1.3 指令微调

10.1.4 ChatGPT的不足

10.2 人类反馈强化学习

10.2.1 工作原理

10.2.2 工作流程

10.2.3 PPO算法

10.2.4 评估框架

10.2.5 创新与不足

10.3 Codex

10.3.1 对源代码进行预处理

10.3.2 处理代码块

10.3.3 将源代码数字化

10.3.4 衡量指标

10.3.5 Codex的逻辑推理能力是如何形成的

10.3.6 CodeGeeX的主要功能

10.3.7 CodeGeeX模型架构

10.4 如何将LaTeX数学公式语言转化为自然语言

10.5 使用PPO算法优化车杆游戏

10.5.1 构建策略网络

10.5.2 构建价值网络

10.5.3 构建PPO模型

10.5.4 定义超参数

10.5.5 实例化模型

10.5.6 训练模型

10.5.7 可视化迭代

10.6 使用RLHF算法提升GPT-2性能

10.6.1 基于中文情绪识别模型的正向评论生成机器人

10.6.2 对评论进行人工打分

10.6.3 标注排序序列替代直接打分

10.7 ChatGPT如何提升思维链推断能力

10.8 ChatGPT如何提升模型的数学逻辑推理能力

第11章 扩散模型

11.1 扩散模型简介

11.1.1 DDPM

11.1.2 扩散概率模型

11.1.3 正向扩散过程

11.1.4 反向扩散过程

11.1.5 正向扩散过程的数学细节

11.1.6 反向扩散过程的数学细节

11.1.7 训练目标和损失函数

11.2 使用PyTorch从零开始编写DDPM

11.2.1 定义超参数

11.2.2 创建数据集

11.2.3 创建数据加载器

11.2.4 可视化数据集

11.2.5 DDPM架构

11.2.6 用残差块取代双卷积模块的优势

11.2.7 创建扩散类

11.2.8 正向扩散过程

11.2.9 可视化正向扩散过程

11.2.10 基于训练算法和采样算法的训练

11.2.11 从零开始训练DDPM

11.2.12 使用DDPM生成图像

第12章 多模态模型

12.1 CLIP简介

12.1.1 CLIP如何将图像与图像描述进行对齐

12.1.2 CLIP如何实现零样本分类

12.1.3 CLIP原理

12.1.4 从零开始运行CLIP

12.1.5 CLIP应用

12.2 Stable Diffusion模型

12.2.1 Stable Diffusion模型的直观理解

12.2.2 Stable Diffusion模型的原理

12.3 从零开始实现Stable Diffusion

12.3.1 文生图

12.3.2 根据提示词修改图

12.4 Stable Diffusion升级版简介

12.4.1 Stable Diffusion 2.0

12.4.2 Stable Diffusion XL

12.5 DALL·E模型

12.5.1 DALL·E简介

12.5.2 DALL·E 2简介

12.5.3 DALL·E 2与GAN的异同

12.5.4 DALL·E 3简介

第13章 AIGC的数学基础

13.1 矩阵的基本运算

13.1.1 矩阵加法

13.1.2 矩阵点积

13.1.3 转置

13.1.4 矩阵的阿达马积

13.1.5 行列式

13.2 随机变量及其分布

13.2.1 从随机事件到随机变量

13.2.2 离散型随机变量及其分布

13.2.3 连续型随机变量及其分布

13.2.4 随机变量的分布函数

13.2.5 多维随机变量及其分布

13.2.6 随机变量的数字特征

13.2.7 随机变量函数的分布

13.3 信息论

13.3.1 信息量

13.3.2 信息熵

13.3.3 条件熵

13.3.4 互信息

13.3.5 KL散度

13.3.6 交叉熵

13.3.7 JS散度

13.3.8 Wasserstein距离

13.3.9 困惑度

13.4 推断

13.4.1 极大似然估计

13.4.2 极大后验概率估计

13.4.3 EM算法

13.4.4 变分推断

13.4.5 马尔可夫链蒙特卡罗随机采样

13.5 强化学习

13.5.1 强化学习基本概念

13.5.2 强化学习基础算法

13.5.3 策略梯度

后折页

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部