万本电子书0元读

万本电子书0元读

顶部广告

大模型导论电子书

·内容全面,本书涵盖大模型技术的各个方面,包括大模型的概念、数据预处理、Transformer、预训练与微调、模型推理以及案例实战等。 ·内容循序渐,从大模型基础概念到发架构全案例式讲解,通过实战引导读者掌握大模型技术。 ·注重实用,附赠源码,丰富学习方式,边学边练。 ·提供丰富的教学资源,适合高校教学和大模型领域从业者使用,满足不同层次读者的需求。

售       价:¥

纸质售价:¥55.10购买纸书

28人正在读 | 0人评论 6.6

作       者:张成文 编著

出  版  社:人民邮电出版社有限公司

出版时间:2024-07-01

字       数:26.5万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书主要介绍了大模型的发展与演变、相关技术、应用场景、未来发展趋势和前景。本书首先回顾了大模型技术的起源和发展历程,然后介绍了数据预处理、Transformer、预训练与微调、模型推理和PyTorch框架等技术。此外,本书还通过具体的案例和实践展示了如何应用大模型技术来解决实际问题。本书旨在帮助读者全面了解大模型技术的发展与应用,并推动其在各个领域的应用和发展。 本书图文并茂,理论翔实,案例丰富,适合从事大模型发的科研人员以及广大的发者作为技术参考和培训资料,亦可作为高校本科生和研究生的教材。<br/>【推荐语】<br/>·内容全面,本书涵盖大模型技术的各个方面,包括大模型的概念、数据预处理、Transformer、预训练与微调、模型推理以及案例实战等。 ·内容循序渐,从大模型基础概念到发架构全案例式讲解,通过实战引导读者掌握大模型技术。 ·注重实用,附赠源码,丰富学习方式,边学边练。 ·提供丰富的教学资源,适合高校教学和大模型领域从业者使用,满足不同层次读者的需求。<br/>【作者】<br/>张成文,博士,北京邮电大学副教授、硕士生导师。中国人工智能学会高级会员,任中国电子商会大模型应用产业专委会秘书长、中国人工智能产业发展联盟产学研工作组副组长,中国医学装备协会人工智能和医用机器人工作委员会常委、中国教育发展战略学会人工智能与机器人专委会理事等。他在网络技术专业领域有着深的研究,并且完成了国家科技重大专项、国家重研发计划、国家自然科学基金等项目。专业方向包括人工智能、大数据个性化推荐、云计算、计算机视觉等。他在国内外一流期刊上发表了多篇高水平论文,并出版了多本教材和专著。<br/>
目录展开

内容提要

推荐语(排名不分先后)

前言

资源与支持

第1章 大模型概述

1.1 大模型介绍

1.1.1 生成原理

1.1.2 关键技术

1.1.3 关键术语

1.2 大模型分类

1.2.1 按模型结构划分

1.2.2 按模态划分

1.2.3 按微调方式划分

1.2.4 带插件系统的大模型

1.3 大模型的开发流程

1.3.1 确定项目目标

1.3.2 数据准备

1.3.3 模型设计

1.3.4 模型训练

1.3.5 模型部署

1.3.6 模型应用

1.4 应用场景

1.5 未来发展方向

1.5.1 AI智能体

1.5.2 具身智能

1.6 小结

1.7 课后习题

第2章 数据预处理

2.1 文本数据预处理

2.1.1 构造方法

2.1.2 构造流程

2.1.3 处理手段

2.1.4 常用类库

2.2 图像数据预处理

2.2.1 图像去噪

2.2.2 图像重采样

2.2.3 图像增强

2.3 图文对数据预处理

2.4 Datasets库

2.4.1 安装与配置

2.4.2 使用方法

2.5 小结

2.6 课后习题

第3章 Transformer

3.1 注意力机制

3.1.1 自注意力机制

3.1.2 多头自注意力机制

3.2 Transformer简介

3.2.1 位置编码

3.2.2 整体结构

3.2.3 稀疏Transformer

3.3 Visual Transformer简介

3.3.1 模型结构

3.3.2 与Transformer对比

3.4 Q-Former

3.5 transformers库

3.5.1 基本组成

3.5.2 使用方法

3.5.3 微调实践

3.6 小结

3.7 课后习题

第4章 预训练

4.1 预训练介绍

4.1.1 发展历程

4.1.2 模型类型

4.1.3 掩码预训练

4.2 预训练任务

4.3 应用于下游任务的方法

4.3.1 迁移学习

4.3.2 微调

4.4 预训练模型的应用

4.5 小结

4.6 课后习题

第5章 训练优化

5.1 模型训练挑战

5.2 训练优化技术

5.2.1 数据并行

5.2.2 模型并行

5.2.3 流水线并行

5.2.4 混合精度训练

5.3 训练加速工具

5.3.1 DeepSpeed

5.3.2 Megatron-LM

5.3.3 Colossal-AI

5.3.4 BMTrain

5.4 小结

5.5 课后习题

第6章 模型微调

6.1 监督微调

6.2 PEFT技术

6.2.1 Adapter tuning

6.2.2 Prefix tuning

6.2.3 Prompt tuning

6.2.4 P-tuning v1

6.2.5 P-tuning v2

6.2.6 LoRA

6.2.7 QLoRA

6.3 PEFT库

6.3.1 关键步骤

6.3.2 微调方法

6.4 小结

6.5 课后习题

第7章 模型推理

7.1 模型压缩和加速技术

7.1.1 模型量化

7.1.2 知识蒸馏

7.1.3 模型剪枝

7.1.4 稀疏激活

7.2 推理服务提升技术

7.2.1 KV Cache

7.2.2 PagedAttention

7.3 小结

7.4 课后习题

第8章 PyTorch框架

8.1 安装与配置

8.2 基础组件

8.2.1 张量

8.2.2 CUDA张量

8.2.3 Autograd

8.2.4 DataLoader

8.3 构建线性回归模型

8.4 构建Transformer模型

8.4.1 数据准备与参数设置

8.4.2 位置编码

8.4.3 掩码操作

8.4.4 注意力计算

8.4.5 前馈神经网络

8.4.6 编码器与解码器

8.4.7 构建Transformer

8.4.8 模型训练

8.4.9 模型测试

8.5 小结

8.6 课后习题

第9章 向量数据库

9.1 Milvus

9.1.1 安装与配置

9.1.2 Milvus 1.0的基本操作

9.1.3 Milvus 2.0的基本操作

9.2 Pinecone

9.2.1 注册与配置

9.2.2 基本操作

9.3 Chroma

9.3.1 安装与配置

9.3.2 基本操作

9.4 小结

9.5 课后习题

第10章 前端可视化工具

10.1 Gradio

10.1.1 Gradio安装

10.1.2 常用操作

10.1.3 Interface使用详解

10.1.4 Blocks使用详解

10.2 Streamlit

10.2.1 安装与配置

10.2.2 数据展示API

10.2.3 控件API

10.2.4 页面布局API

10.2.5 状态存储

10.3 小结

10.4 课后习题

第11章 LangChain

11.1 LangChain组件

11.1.1 Models

11.1.2 Prompts

11.1.3 Indexes

11.1.4 Memory

11.1.5 Chains

11.1.6 Agents

11.2 基础操作

11.2.1 Prompts的用法

11.2.2 Chains的用法

11.2.3 Agents的用法

11.2.4 Memory的用法

11.3 进阶实战

11.3.1 对话式检索问答

11.3.2 长短文本总结

11.3.3 结合向量数据库实现问答

11.4 基于私域数据的问答系统

11.4.1 环境准备

11.4.2 模型测试

11.4.3 构建提示词模板

11.4.4 生成词向量

11.4.5 创建向量数据库

11.4.6 构建问答系统

11.5 小结

11.6 课后习题

第12章 常用开源模型的部署与微调

12.1 ChatGLM3模型部署与微调

12.1.1 环境准备

12.1.2 载入模型

12.1.3 数据准备

12.1.4 定义模型

12.1.5 模型训练

12.1.6 保存模型

12.1.7 模型评估

12.2 Baichuan2模型部署与微调

12.2.1 环境准备

12.2.2 载入模型

12.2.3 数据准备

12.2.4 定义模型

12.2.5 模型训练

12.2.6 保存模型

12.2.7 模型评估

12.3 LLaMA2模型部署与微调

12.3.1 模型使用申请

12.3.2 环境准备

12.3.3 载入模型

12.3.4 数据准备

12.3.5 模型训练

12.3.6 保存模型

12.3.7 模型评估

12.4 小结

12.5 课后习题

参考文献

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部