万本电子书0元读

万本电子书0元读

顶部广告

图解大模型:生成式AI原理与实战电子书

1.【直观】300幅全彩插图,极致视觉化呈现 2.【全面】涵盖大模型原理、应用发、优化 3.【实操】真实数据集,实用项目,典型场景 4.【热】18幅图深度解读DeepSeek底层原理 5.【附赠】一键运行代码 大模型面试题200问 6.【视频】大量线上拓展资料,包括文章、视频

售       价:¥

纸质售价:¥109.80购买纸书

121人正在读 | 0人评论 6.4

作       者:[沙特] 杰伊·阿拉马尔(Jay Alammar) [荷] 马尔滕·格鲁滕多斯特(Maarten Grootendorst) 著

出  版  社:人民邮电出版社有限公司

出版时间:2025-05-01

字       数:29.5万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书全程图解式讲解,通过大量全彩插图拆解概念,让读者真正告别学习大模型的枯燥和复杂。  全书分为三部分,依次介绍语言模型的原理、应用及优化。第一部分 理解语言模型(第1~3章),解析语言模型的核心概念,包括词元、嵌向量及Transformer架构,帮助读者建立基础认知。第二部分 使用预训练语言模型(第4~9章),介绍如何使用大模型行文本分类、聚类、语义搜索、文本生成及多模态扩展,提升模型的应用能力。第三部分 训练和微调语言模型(第10~12章),探讨大模型的训练与微调方法,包括嵌模型的构建、分类任务的优化及生成式模型的微调,以适应特定需求。  本书适合对大模型感兴趣的发者、研究人员和行业从业者。读者无须深度学习基础,只要会用Python,就可以通过本书深理解大模型的原理并上手大模型应用发。书中示例还可以一键在线运行,让学习过程更轻松。<br/>【推荐语】<br/>1.【直观】300幅全彩插图,极致视觉化呈现 2.【全面】涵盖大模型原理、应用发、优化 3.【实操】真实数据集,实用项目,典型场景 4.【热】18幅图深度解读DeepSeek底层原理 5.【附赠】一键运行代码 大模型面试题200问 6.【视频】大量线上拓展资料,包括文章、视频<br/>【作者】<br/>Jay Alammar  Cohere总监兼工程研究员,知名大模型技术博客Language Models & Co作者,DeepLearning.AI和Udacity热门机器学习和自然语言处理课程作者。 Jay的图解系列文章“The Illustrated Transformer”“The Illustrated DeepSeek-R1”全网疯传,累积了几百万专业读者。<br/>
目录展开

版权声明

O'Reilly Media, Inc. 介绍

对本书的赞誉

对本书中文版的赞誉

译者序

配套阅读:大模型面试题 60 问 1

关于翻译

中文版序

前言

以直观理解为先的理念

基础知识要求

本书结构

第一部分:理解语言模型

第二部分:使用预训练语言模型

第三部分:训练和微调语言模型

硬件和软件要求

API 密钥

本书使用的约定

代码示例的使用

O'Reilly 在线学习平台(O'Reilly Online Learning)

联系我们

致谢

Jay 致谢

Maarten 致谢

第一部分 理解语言模型

第 1 章 大语言模型简介

1.1 什么是语言人工智能

1.2 语言人工智能的近期发展史

1.2.1 将语言表示为词袋模型

1.2.2 用稠密向量嵌入获得更好的表示

1.2.3 嵌入的类型

1.2.4 使用注意力机制编解码上下文

1.2.5 “Attention Is All You Need”

1.2.6 表示模型:仅编码器模型

1.2.7 生成模型:仅解码器模型

1.2.8 生成式 AI 元年

1.3 “LLM”定义的演变

1.4 LLM 的训练范式

1.5 LLM 的应用

1.6 开发和使用负责任的 LLM

1.7 有限的资源就够了

1.8 与 LLM 交互

1.8.1 专有模型

1.8.2 开源模型

1.8.3 开源框架

1.9 生成你的第一段文本

1.10 小结

第 2 章 词元和嵌入

2.1 LLM 的分词

2.1.1 分词器如何处理语言模型的输入

2.1.2 下载和运行 LLM

2.1.3 分词器如何分解文本

2.1.4 词级、子词级、字符级与字节级分词

2.1.5 比较训练好的 LLM 分词器

2.1.6 分词器属性

2.2 词元嵌入

2.2.1 语言模型为其分词器的词表保存嵌入

2.2.2 使用语言模型创建与上下文相关的词嵌入

2.3 文本嵌入(用于句子和整篇文档)

2.4 LLM 之外的词嵌入

2.4.1 使用预训练词嵌入

2.4.2 word2vec 算法与对比训练

2.5 推荐系统中的嵌入

2.5.1 基于嵌入的歌曲推荐

2.5.2 训练歌曲嵌入模型

2.6 小结

第 3 章 LLM 的内部机制

3.1 Transformer 模型概述

3.1.1 已训练 Transformer LLM 的输入和输出

3.1.2 前向传播的组成

3.1.3 从概率分布中选择单个词元(采样/解码)

3.1.4 并行词元处理和上下文长度

3.1.5 通过缓存键-值加速生成过程

3.1.6 Transformer 块的内部结构

3.2 Transformer 架构的最新改进

3.2.1 更高效的注意力机制

3.2.2 Transformer 块

3.2.3 位置嵌入:RoPE

3.2.4 其他架构实验和改进

3.3 小结

第二部分 使用预训练语言模型

第 4 章 文本分类

4.1 电影评论的情感分析

4.2 使用表示模型进行文本分类

4.3 模型选择

4.4 使用特定任务模型

4.5 利用嵌入向量的分类任务

4.5.1 监督分类

4.5.2 没有标注数据怎么办

4.6 使用生成模型进行文本分类

4.6.1 使用 T5

4.6.2 使用 ChatGPT 进行分类

4.7 小结

第 5 章 文本聚类和主题建模

5.1 ArXiv 文章:计算与语言

5.2 文本聚类的通用流程

5.2.1 嵌入文档

5.2.2 嵌入向量降维

5.2.3 对降维后的嵌入向量进行聚类

5.2.4 检查生成的簇

5.3 从文本聚类到主题建模

5.3.1 BERTopic:一个模块化主题建模框架

5.3.2 添加特殊的“乐高积木块”

5.3.3 文本生成的“乐高积木块”

5.4 小结

第 6 章 提示工程

6.1 使用文本生成模型

6.1.1 选择文本生成模型

6.1.2 加载文本生成模型

6.1.3 控制模型输出

6.2 提示工程简介

6.2.1 提示词的基本要素

6.2.2 基于指令的提示词

6.3 高级提示工程

6.3.1 提示词的潜在复杂性

6.3.2 上下文学习:提供示例

6.3.3 链式提示:分解问题

6.4 使用生成模型进行推理

6.4.1 思维链:先思考再回答

6.4.2 自洽性:采样输出

6.4.3 思维树:探索中间步骤

6.5 输出验证

6.5.1 提供示例

6.5.2 语法:约束采样

6.6 小结

第 7 章 高级文本生成技术与工具

7.1 模型输入/输出:基于 LangChain 加载量化模型

7.2 链:扩展 LLM 的能力

7.2.1 链式架构的关键节点:提示词模板

7.2.2 多提示词链式架构

7.3 记忆:构建 LLM 的对话回溯能力

7.3.1 对话缓冲区

7.3.2 窗口式对话缓冲区

7.3.3 对话摘要

7.4 智能体:构建 LLM 系统

7.4.1 智能体的核心机制:递进式推理

7.4.2 LangChain 中的 ReAct 实现

7.5 小结

第 8 章 语义搜索与 RAG

8.1 语义搜索与 RAG 技术全景

8.2 语言模型驱动的语义搜索实践

8.2.1 稠密检索

8.2.2 重排序

8.2.3 检索评估指标体系

8.3 RAG

8.3.1 从搜索到 RAG

8.3.2 示例:使用 LLM API 进行基于知识的生成

8.3.3 示例:使用本地模型的 RAG

8.3.4 高级 RAG 技术

8.3.5 RAG 效果评估

8.4 小结

第 9 章 多模态 LLM

9.1 视觉 Transformer

9.2 多模态嵌入模型

9.2.1 CLIP:构建跨模态桥梁

9.2.2 CLIP 的跨模态嵌入生成机制

9.2.3 OpenCLIP

9.3 让文本生成模型具备多模态能力

9.3.1 BLIP-2:跨越模态鸿沟

9.3.2 多模态输入预处理

9.3.3 用例 1:图像描述

9.3.4 用例 2:基于聊天的多模态提示词

9.4 小结

第三部分 训练和微调语言模型

第 10 章 构建文本嵌入模型

10.1 嵌入模型

10.2 什么是对比学习

10.3 SBERT

10.4 构建嵌入模型

10.4.1 生成对比样本

10.4.2 训练模型

10.4.3 深入评估

10.4.4 损失函数

10.5 微调嵌入模型

10.5.1 监督学习

10.5.2 增强型 SBERT

10.6 无监督学习

10.6.1 TSDAE

10.6.2 使用 TSDAE 进行领域适配

10.7 小结

第 11 章 为分类任务微调表示模型

11.1 监督分类

11.1.1 微调预训练的 BERT 模型

11.1.2 冻结层

11.2 少样本分类

11.2.1 SetFit:少样本场景下的高效微调方案

11.2.2 少样本分类的微调

11.3 基于掩码语言建模的继续预训练

11.4 命名实体识别

11.4.1 数据准备

11.4.2 命名实体识别的微调

11.5 小结

第 12 章 微调生成模型

12.1 LLM 训练三步走:预训练、监督微调和偏好调优

12.2 监督微调

12.2.1 全量微调

12.2.2 参数高效微调

12.3 使用 QLoRA 进行指令微调

12.3.1 模板化指令数据

12.3.2 模型量化

12.3.3 LoRA 配置

12.3.4 训练配置

12.3.5 训练

12.3.6 合并权重

12.4 评估生成模型

12.4.1 词级指标

12.4.2 基准测试

12.4.3 排行榜

12.4.4 自动评估

12.4.5 人工评估

12.5 偏好调优、对齐

12.6 使用奖励模型实现偏好评估自动化

12.6.1 奖励模型的输入和输出

12.6.2 训练奖励模型

12.6.3 训练无奖励模型

12.7 使用 DPO 进行偏好调优

12.7.1 对齐数据的模板化

12.7.2 模型量化

12.7.3 训练配置

12.7.4 训练

12.8 小结

附录 图解 DeepSeek-R1

A.1 回顾:大模型的训练原理

A.2 DeepSeek-R1 训练方案

A.2.1 长推理链监督微调数据

A.2.2 临时性高质量推理大模型

A.2.3 利用大规模强化学习构建推理模型

后记

作者简介

封面简介

链接资源1

前言

1.1 节

1.2 节

1.6 节

1.8 节

2.1 节

2.2 节

2.3 节

2.4 节

2.5 节

3.1 节

3.2 节

4.1 节

4.3 节

4.4 节

4.5 节

4.6 节

5.1 节

5.3 节

6.4 节

6.5 节

第 7 章

7.1 节

7.4 节

第 8 章

8.2 节

8.3 节

9.2 节

9.3 节

10.4 节

10.5 节

10.6 节

11.2 节

12.3 节

12.4 节

12.7 节

附录 A 原文中的其他资源推荐

作者简介

大模型面试题 200 问

第 1 章 大模型简介

第 2 章 词元和嵌入

第 3 章 LLM 的内部机制

第 4 章 文本分类

第 5 章 文本聚类和主题建模

第 6 章 提示工程

第 7 章 高级文本生成技术与工具

第 8 章 语义搜索与 RAG

第 9 章 多模态大模型

第 10 章 构建文本嵌入模型

第 11 章 为分类任务微调表示模型

第 12 章 微调生成模型

图解推理大模型

DeepSeek-R1

看完了

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部