万本电子书0元读

万本电子书0元读

顶部广告

大模型核心技术与应用(微课视频版)电子书

本书深浅出地介绍了人工智能和大模型的核心概念和算法,以及这些技术是如何发明和发展的。通过阅读本书,读者能够理解大模型背后的技术,感受到它所带来的改变。

售       价:¥

纸质售价:¥79.00购买纸书

0人正在读 | 0人评论 6.5

作       者:薛鹏

出  版  社:清华大学出版社

出版时间:2025-07-01

字       数:13.8万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书从大型模型的结构讲起,让读者了解大型模型的内部实现原理,然后讲解如何在特定任务下对大型模型行预训练、有监督的微调,以及行强化学习。通过对模型采用不同方法的训练,持续改模型在特定任务上的性能。最后,本书将与读者一起探讨如何利用大型模型发大模型时代的智能应用。 本书共9章,第1章讲解大型模型发展的历史及其带来的变革。第2章深讲解大型模型内部结构的演。第3章会尝试自己运行一个大模型。第4章介绍大型模型对模型训练和推理过程中带来的技术挑战和解决办法。第5章讲解如何行大型模型的预训练以获取大模型的基本能力。第6章讲解如何对大模型行有监督的微调,使大型模型输出与人类意图对齐。第7章讲解如何通过强化学习一步提升大型模型的表现。第8章讲解如何对大模型行评估。第9章讲解如何利用大模型构建智能应用。 本书适合有一定深度学习基础的读者,帮助他们从原理到应用,快速了解大型模型的原理、训练方法,并利用大型模型行智能应用的发。<br/>【推荐语】<br/>本书深浅出地介绍了人工智能和大模型的核心概念和算法,以及这些技术是如何发明和发展的。通过阅读本书,读者能够理解大模型背后的技术,感受到它所带来的改变。<br/>【作者】<br/>薛鹏,深圳力维智联技术有限公司人工智能首席科学家,上海迥灵信息技术有限公司CTO,原IBM AI产品Tech Lead。负责研发多款AI产品,十五年人工智能技术应用经验。目前致力于大模型平台产品研发和大模型技术行业应用。<br/>
目录展开

封面页

书名页

版权页

内容简介

作者简介

前言

目录

第1章 大模型时代

1.1 大模型的发展历史

1.1.1 注意力机制的发扬光大

1.1.2 从GPT到InstructGPT

1.1.3 ChatGPT惊艳登场

1.1.4 全球首个AI程序员诞生

1.2 大模型时代的新范式

第2章 深入了解大模型

2.1 Transformer横空出世

2.1.1 词典生成

2.1.2 词嵌入

2.1.3 自注意力机制

2.1.4 层归一化

2.1.5 残差连接

2.1.6 前馈模块

2.1.7 Transformer的整体架构

2.1.8 位置编码

2.1.9 解码器的输入输出

2.1.10 掩码机制

2.1.11 交叉注意力

2.1.12 线性分类头

2.2 GPT

2.2.1 GPT-1

2.2.2 GPT-2

2.2.3 GPT-3

2.2.4 GPT-4

2.3 OpenAI o1

2.4 Llama

2.4.1 Llama1

2.4.2 Llama2

2.4.3 Llama3

第3章 运行第1个大模型

3.1 HuggingFace介绍

3.2 下载大模型

3.3 运行大模型

3.4 HuggingFace里的Tokenizer

3.5 HuggingFace里的模型

3.5.1 创建和保存模型

3.5.2 控制大模型的输出

第4章 大模型带来的技术挑战

4.1 GPU的工作原理

4.1.1 CPU和GPU的区别

4.1.2 GPU的架构

4.1.3 GPU里的存储

4.1.4 Tensor Core

4.2 大模型显存占用

4.3 优化器

4.3.1 指数加权平均

4.3.2 SGD

4.3.3 动量梯度下降

4.3.4 RMSProp

4.3.5 Adam

4.3.6 AdamW

4.4 混合精度训练

4.4.1 混合精度训练原理

4.4.2 在PyTorch里进行混合精度训练

4.5 模型的量化技术

4.5.1 量化技术的原理

4.5.2 训练后动态量化

4.5.3 训练后静态量化

4.5.4 量化感知训练

4.5.5 LLM.int8

4.5.6 NF4量化

4.6 梯度累加

4.7 梯度检查点

4.8 分布式训练

4.8.1 分布式数据并行

4.8.2 DeepSpeed ZeRO

4.8.3 Accelerate

4.9 参数高效微调

4.9.1 提示词微调

4.9.2 LoRA

4.10 vLLM

4.10.1 KV Cache

4.10.2 Page Attention

4.10.3 块共享

4.10.4 代码示例

4.11 FlashAttention

第5章 大模型的预训练

5.1 预训练的作用

5.2 预训练的数据

5.3 预训练的方法

5.4 预训练Llama3.1

5.4.1 最简训练代码

5.4.2 数据清洗

5.4.3 数据准备

5.4.4 初始化模型

5.4.5 模型预训练

第6章 大模型的监督微调

6.1 对话模板

6.2 只关注回答

6.3 噪声嵌入微调

6.4 SFT Trainer

第7章 大模型的强化学习

7.1 强化学习基础

7.1.1 强化学习里的基础概念

7.1.2 策略梯度算法

7.1.3 Actor-Critic算法

7.1.4 广义优势估计算法

7.2 近端策略优化

7.3 直接偏好优化

7.3.1 K-L散度

7.3.2 Bradley-Terry模型

7.3.3 DPO的训练目标

7.4 利用TRL库进行PPO训练

7.4.1 奖励模型

7.4.2 PPO模型

第8章 大模型的评估

8.1 困惑度

8.2 人工评估

8.3 可解析的测评集

8.3.1 MMLU

8.3.2 MMLU-PRO

8.3.3 IF-EVAL

8.3.4 BBH

8.3.5 MATH

8.3.6 GPQA

8.4 利用大模型评估

第9章 构建大模型应用

9.1 提示词工程

9.1.1 明确的任务指示

9.1.2 提供上下文信息

9.1.3 赋予大模型角色

9.1.4 给模型思考时间

9.1.5 给模型参考示例

9.2 LangChain介绍

9.3 第1个LangChain程序

9.4 构建一个聊天机器人

9.5 LangChain的进阶功能

9.5.1 对输出进行解析

9.5.2 为提示词增加样例

9.6 检索增强生成

9.6.1 RAG流程

9.6.2 文档分片

9.6.3 向量嵌入模型

9.6.4 向量存储

9.6.5 Retriever

9.6.6 生成回答

9.7 RAG进阶

9.7.1 问题转化

9.7.2 混合检索

9.7.3 索引增强

9.7.4 检索结果重排

9.8 智能体

9.8.1 创建第1个智能体

9.8.2 给智能体定义工具

9.8.3 智能体使用工具的原理

9.8.4 给智能体增加记忆

9.8.5 人与智能体合作

9.8.6 多智能体协作

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部