在跟大模型技术时,总觉得“知识散、路乱”? 想把握AI产业趋势,却缺乏从技术到落地的实战视角? 这本书的作者,是深度参与企业大模型布局、主导生成式AI产品落地的实战派——他把多年一线经验,融成9章“产业+技术+应用”的完整路。 1. 理清大模型核心概念、技术历程与产业竞争格局。 2. 深核心原理:从监督学习、深度学习,到 Transformer/LLM 的技术演。
售 价:¥
纸质售价:¥63.00购买纸书
6.7
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐

版 权
内容提要
推荐语
前 言
资源与支持
第1章 大模型技术概述
1.1 大模型相关概念辨析
1.1.1 基础模型
1.1.2 GenAI模型
1.1.3 LLM
1.1.4 大模型
1.2 大模型技术发展历程
1.2.1 技术发展的阶段
1.2.2 技术发展的驱动力
1.2.3 当前挑战与未来发展方向
1.3 大模型系统发展路径
1.3.1 基础语言理解与生成
1.3.2 工具赋能的增强智能
1.3.3 自主思考的深入探索
1.3.4 连接物理世界的具身智能
第2章 大模型产业发展概述
2.1 大模型产业发展回顾
2.1.1 Transformer架构诞生
2.1.2 商业模式探索
2.1.3 ChatGPT与生态竞赛
2.1.4 “百家争鸣”时代
2.2 商业化核心战略
2.2.1 构建可持续的商业闭环
2.2.2 平民化
2.2.3 专业化
2.2.4 具身化
2.3 产业落地模式
2.3.1 场景创新
2.3.2 工具创新
2.3.3 方法创新
2.3.4 评估大模型带来的创新价值
2.4 产业竞争格局与挑战
2.4.1 领跑者的技术透明化挑战
2.4.2 后发者的市场局限
2.4.3 创业公司的生存压力
第3章 模型预训练技术基础
3.1 监督学习
3.1.1 监督学习的定义
3.1.2 监督学习的统计建模
3.1.3 监督学习的统计前提
3.1.4 监督学习中模型结构的选择
3.1.5 监督学习中模型的泛化机制
3.1.6 案例分析:从实验观测数据发现牛顿第二定律
3.2 深度学习
3.2.1 层次结构与函数表达能力
3.2.2 网络训练机制
3.2.3 DNN的过拟合风险与压缩张力
3.2.4 DNN压缩机制
3.2.5 DNN的结构化能力
3.3 表示学习
3.3.1 表示学习的基本思想
3.3.2 CNN与层次化空间表示
3.3.3 残差网络
3.4 迁移学习
3.4.1 概念引入:从已见分布到未知分布
3.4.2 迁移学习的基本策略:冻结还是微调
3.4.3 ResNet与ImageNet
3.4.4 迁移学习的流程
3.4.5 实践案例:ResNet-152羊驼五分类微调
3.4.6 迁移学习的范式转变
第4章 预训练语言模型基础
4.1 标记化
4.1.1 记号
4.1.2 词汇表
4.1.3 未登录词
4.1.4 标记化策略
4.1.5 编码与解码
4.2 编码器-解码器架构
4.2.1 编码器-解码器架构概念
4.2.2 隐层语义空间
4.2.3 通用性和模块化
4.3 自监督学习
4.3.1 自监督学习的借口任务
4.3.2 CLM
4.4 RNN
4.4.1 RNN基础与工作原理
4.4.2 RNN编码器
4.4.3 RNN解码器
4.4.4 强制教学与计划采样
4.4.5 LSTM与门控结构记忆
4.4.6 注意力机制
4.5 Transformer与并行检索
4.5.1 从循环依赖到并行计算
4.5.2 自注意力机制
4.5.3 位置编码机制
4.5.4 多头注意力机制
4.5.5 标准的Transformer层结构
4.5.6 自监督的预训练范式
第5章 LLM基础
5.1 预训练阶段
5.1.1 缩放定律
5.1.2 数据
5.1.3 算力
5.1.4 参数规模
5.2 后训练阶段
5.2.1 分类头微调
5.2.2 指令微调
5.2.3 环境价值体系对齐
5.2.4 RLHF的滚雪球式自举对齐
第6章 提示工程方法
6.1 上下文学习原理机制
6.1.1 测试时模型的生成行为控制问题
6.1.2 少样本提示与新任务学习机制
6.1.3 零样本提示的能力
6.2 RAG的知识迁移机制
6.2.1 建立检索模块的“语义可比性”基础
6.2.2 检索模块中的效率与精度权衡
6.2.3 面向生成质量的新排序器训练范式
6.2.4 将外部知识注入模型上下文
6.3 AI搜索
6.3.1 从信息检索到任务执行的范式跃迁
6.3.2 结构化知识索引机制
6.3.3 工具环境中的检索机制
6.3.4 用户偏好环境中的召回机制
6.3.5 多通道融合机制
6.3.6 搜索型系统的演化趋势:从检索接口到语义代理
第7章 符号推理方法
7.1 状态空间
7.1.1 状态空间的构造
7.1.2 推理的本质
7.1.3 默认搜索机制的局限
7.2 路径深度与推理能力
7.2.1 输出长度作为“行动预算”
7.2.2 CoT提示
7.3 自一致性机制
7.3.1 以路径多样性提升推理鲁棒性
7.3.2 搜索策略的演进
7.4 ToT:构建显式的结构化搜索范式
7.4.1 DFS的结构性瓶颈
7.4.2 早期结构化尝试
7.4.3 ToT的核心
7.4.4 ToT应用
7.5 语言作为控制器
7.5.1 显式提示驱动
7.5.2 交互式引导
7.5.3 策略的内化
7.5.4 策略的涌现:超越模仿,迈向自组织的复杂搜索行为
第8章 语言智能体的构建
8.1 工作记忆
8.1.1 将LLM的生成过程重新诠释为策略函数
8.1.2 构建智能体的动态认知
8.1.3 ReAct框架
8.2 长期记忆
8.2.1 ReAct框架的局限与突破
8.2.2 长期记忆的运作机制
8.2.3 长期记忆的架构与流程
8.3 语言智能体的本质
8.3.1 先验知识体系
8.3.2 环境交互机制
8.3.3 先验与反馈的协同进化
第9章 智能体的认知架构
9.1 认知架构总览
9.1.1 认知架构的核心设计原则
9.1.2 SOAR认知架构
9.1.3 CoALA
9.2 情节记忆
9.2.1 在线层-近线层-离线层3层架构
9.2.2 在线写入
9.2.3 近线处理
9.2.4 离线反思
9.2.5 在线检索
9.3 程序记忆
9.3.1 认知过程的规则与调度
9.3.2 规则的固化与执行
9.3.3 程序记忆的整合与治理
9.4 行动规划
9.4.1 行动策略的演进
9.4.2 规划的生成
9.4.3 流水线架构
9.4.4 应用案例分析:博弈场景的“博弈树”优化
9.5 交互协议MCP
9.5.1 MCP
9.5.2 工具的使用模式
9.5.3 工具的动态生成
9.5.4 工具生态的治理
9.5.5 可信赖自主交互的顶层设计
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜