从零始,循序渐,深剖析理论重与发难: 本书从基础概念手,逐步深技术原理和应用,以启发式教学帮助读者逐步深了解生成式AI的方方面面。 理论与实践相结合,既有理论详解,又有发实例,助力读者全面掌握生成式AI应用程序发: 本书不仅介绍生成式AI的理论知识,而且涉及相关的实际应用和案例分析,可以帮助读者更好地理解理论知识在实际问题中的应用。 案例实用,贴近生活,内容丰富,有趣且有料:
售 价:¥
纸质售价:¥78.80购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
版 权
内 容 提 要
资源与支持
对本书的赞誉
前 言
第1章 生成式AI用例、基础知识和项目生命周期
1.1 生成式AI用例和任务
1.2 基础模型和模型中心
1.3 生成式AI项目生命周期
1.4 AWS上的生成式AI
1.5 为什么选择基于AWS构建生成式AI
1.6 在AWS上构建生成式AI应用程序
1.7 小结
第2章 提示工程与上下文学习
2.1 提示与补全
2.2 token
2.3 提示工程
2.4 提示结构
2.4.1 指令
2.4.2 上下文
2.5 通过少样本推理进行上下文学习
2.5.1 零样本推理
2.5.2 单样本推理
2.5.3 少样本推理
2.5.4 上下文学习出错
2.5.5 上下文学习实践
2.6 提示工程实践
2.7 推理配置参数
2.8 小结
第3章 大语言基础模型
3.1 大语言基础模型简介
3.2 分词器
3.3 嵌入向量
3.4 Transformer
3.4.1 输入token上下文窗口
3.4.2 嵌入
3.4.3 编码器
3.4.4 自注意力层
3.4.5 解码器
3.4.6 Softmax输出
3.5 基于Transformer的基础模型的类别
3.6 预训练数据集
3.7 缩放定律
3.8 计算最优模型
3.9 小结
第4章 显存和计算优化
4.1 显存容量挑战
4.2 数据类型和数值精度
4.3 量化
4.3.1 fp16
4.3.2 bfloat16
4.3.3 fp8
4.3.4 int8
4.4 优化自注意力层
4.4.1 FlashAttention
4.4.2 分组查询注意力
4.5 分布式GPU集群计算
4.5.1 分布式数据并行
4.5.2 全分片数据并行
4.5.3 FSDP与DDP的性能比较
4.6 基于AWS的分布式计算
4.6.1 通过Amazon SageMaker进行全分片数据并行
4.6.2 AWS Neuron SDK与AWS Trainium
4.7 小结
第5章 微调和评估
5.1 指令微调简介
5.1.1 Llama 2
5.1.2 Falcon
5.1.3 FLAN-T5
5.2 指令数据集
5.2.1 多任务指令数据集
5.2.2 FLAN:示例多任务指令数据集
5.2.3 提示模板
5.2.4 将自定义数据集转换为指令数据集
5.3 指令微调的过程
5.3.1 Amazon SageMaker Studio
5.3.2 Amazon SageMaker JumpStart
5.3.3 将Amazon SageMaker Estimator用于Hugging Face
5.4 评估
5.4.1 评估指标
5.4.2 基准测试和数据集
5.5 小结
第6章 参数高效微调
6.1 全量微调与PEFT
6.2 LoRA和QLoRA
6.2.1 LoRA基础
6.2.2 秩
6.2.3 目标模块和网络层
6.2.4 应用LoRA
6.2.5 将LoRA适配器与原始模型合并
6.2.6 维护独立的LoRA适配器
6.2.7 全量微调与 LoRA 性能比较
6.2.8 QLoRA
6.3 Prompt Tuning和软提示
6.4 小结
第7章 基于人类反馈的强化学习微调
7.1 与人类价值观对齐:有用的、诚实的、无害的
7.2 强化学习概述
7.3 训练自定义奖励模型
7.3.1 通过人机交互收集训练数据集
7.3.2 供人类标注者参考的示例指令
7.3.3 通过Amazon SageMaker Ground Truth进行人工标注
7.3.4 为训练奖励模型准备排序数据
7.3.5 训练奖励模型
7.4 现有奖励模型:Meta有害性检测器模型
7.5 通过人类反馈进行强化学习微调
7.5.1 使用奖励模型进行RLHF
7.5.2 近端策略优化强化学习算法
7.5.3 通过PPO进行RLHF微调
7.5.4 缓解奖励破解
7.5.5 通过RLHF进行PEFT
7.6 评估RLHF微调模型
7.6.1 定性评估
7.6.2 定量评估
7.6.3 载入评估模型
7.6.4 定义评估指标聚合函数
7.6.5 比较应用RLHF之前和之后的评估指标
7.7 小结
第8章 模型部署优化
8.1 模型推理优化
8.1.1 剪枝
8.1.2 通过GPTQ进行训练后量化
8.1.3 蒸馏
8.2 大型模型推理容器
8.3 AWS Inferentia:专为推理而打造的硬件
8.4 模型更新和部署策略
8.4.1 A/B测试
8.4.2 影子模型部署
8.5 指标和监控
8.6 自动伸缩
8.6.1 自动伸缩策略
8.6.2 定义自动伸缩策略
8.7 小结
第9章 通过RAG和agent实现基于上下文推理的应用程序
9.1 大语言模型的局限性
9.1.1 幻觉
9.1.2 知识截断
9.2 RAG
9.2.1 外部知识源
9.2.2 RAG工作流
9.2.3 文档加载
9.2.4 分块
9.2.5 检索数据和重新排序
9.2.6 提示增强
9.3 RAG编排和实现
9.3.1 文档加载和分块
9.3.2 嵌入向量存储和检索
9.3.3 检索链
9.3.4 通过MMR进行重新排序
9.4 agent
9.4.1 ReAct框架
9.4.2 PAL框架
9.5 生成式AI应用程序
9.6 FMOps:实施生成式AI项目生命周期
9.6.1 试验注意事项
9.6.2 开发注意事项
9.6.3 生产部署注意事项
9.7 小结
第10章 多模态基础模型
10.1 用例
10.2 多模态提示工程实践
10.3 图像生成和增强
10.3.1 图像生成
10.3.2 图像编辑和增强
10.4 图像补全、图像外部填充和depth-to-image
10.4.1 图像补全
10.4.2 图像外部填充
10.4.3 depth-to-image
10.5 图像描述和视觉问答
10.5.1 图像描述
10.5.2 内容审查
10.5.3 视觉问答
10.6 模型评估
10.6.1 文生图任务
10.6.2 图生文任务
10.6.3 非语言推理任务
10.7 扩散模型架构
10.7.1 前向扩散简介
10.7.2 反向扩散简介
10.7.3 U-Net简介
10.8 Stable Diffusion 2架构
10.8.1 文本编码器
10.8.2 U-Net和扩散过程
10.8.3 文本条件控制
10.8.4 交叉注意力
10.8.5 采样器
10.8.6 图像解码器
10.9 Stable Diffusion XL架构
10.9.1 U-Net和交叉注意力
10.9.2 精修模型
10.9.3 条件控制
10.10 小结
第11章 通过Stable Diffusion进行受控生成和微调
11.1 ControlNet
11.2 微调
11.2.1 DreamBooth
11.2.2 DreamBooth与PEFT-LoRA
11.2.3 文本反演
11.3 通过RLHF进行人类偏好对齐
11.4 小结
第12章 Amazon Bedrock:用于生成式AI的托管服务
12.1 Bedrock基础模型
12.1.1 Amazon Titan基础模型
12.1.2 来自Stability AI公司的Stable Diffusion基础模型
12.2 Bedrock推理API
12.3 大语言模型推理API
12.3.1 生成SQL代码
12.3.2 文本摘要
12.3.3 使用Amazon Bedrock生成嵌入
12.4 通过Amazon Bedrock进行微调
12.5 通过Amazon Bedrock创建agent
12.6 多模态模型
12.6.1 文生图
12.6.2 图生图
12.7 数据隐私和网络安全
12.8 治理和监控
12.9 小结
关 于 作 者
关 于 译 者
关于项目策划人
关 于 封 面
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜