为你推荐

内容简介
前言
第1章 Agent框架与应用
1.1 初识Agent
1.1.1 感知能力
1.1.2 思考能力
1.1.3 动作能力
1.1.4 记忆能力
1.2 Agent框架
1.2.1 Agent框架理念
1.2.2 常用的Agent框架
1.3 Multi-Agent多角色协作
1.3.1 SOP拆解
1.3.2 角色扮演
1.3.3 反馈迭代
1.3.4 监督控制
1.3.5 实例说明
1.4 Agent应用分析
1.4.1 Agent自身场景落地
1.4.2 Agent结合RPA场景落地
1.4.3 Agent多态具身机器人
第2章 使用Coze打造专属Agent
2.1 Coze平台
2.1.1 Coze平台的优势
2.1.2 Coze平台的界面
2.1.3 Coze平台的功能模块
2.2 Agent的实现流程
2.2.1 Agent需求分析
2.2.2 Agent架构设计
2.3 使用Coze平台打造专属的NBA新闻助手
2.3.1 需求分析与设计思路制定
2.3.2 NBA新闻助手的实现与测试
2.4 使用Coze平台打造小红书文案助手
2.4.1 需求分析与设计思路制定
2.4.2 小红书文案助手的实现与测试
第3章 打造专属领域的客服聊天机器人
3.1 客服聊天机器人概述
3.1.1 客服聊天机器人价值简介
3.1.2 客服聊天机器人研发工具
3.2 AI课程客服聊天机器人总体架构
3.2.1 前端功能设计
3.2.2 后端功能设计
3.3 AI课程客服聊天机器人应用实例
第4章 AutoGen Agent开发框架实战
4.1 AutoGen开发环境
4.1.1 Anaconda
4.1.2 PyCharm
4.1.3 AutoGen Studio
4.2 AutoGen Studio案例
4.2.1 案例介绍
4.2.2 AutoGen Studio模型配置
4.2.3 AutoGen Studio技能配置
4.2.4 AutoGen Studio本地化配置
第5章 生成式代理——以斯坦福AI小镇为例
5.1 生成式代理简介
5.2 斯坦福AI小镇项目简介
5.2.1 斯坦福AI小镇项目背景
5.2.2 斯坦福AI小镇设计原理
5.2.3 斯坦福AI小镇典型情景
5.2.4 交互体验
5.2.5 技术实现
5.2.6 社会影响
5.3 斯坦福AI小镇体验
5.3.1 资源准备
5.3.2 部署运行
5.4 生成式代理的行为和交互
5.4.1 模拟个体和个体间的交流
5.4.2 环境交互
5.4.3 示例“日常生活中的一天”
5.4.4 自发社会行为
5.5 生成式代理架构
5.5.1 记忆和检索
5.5.2 反思
5.5.3 计划和反应
5.6 沙盒环境实现
5.7 评估
5.7.1 评估程序
5.7.2 条件
5.7.3 分析
5.7.4 结果
5.8 生成式代理的进一步探讨
第6章 RAG检索架构分析与应用
6.1 RAG架构分析
6.1.1 检索器
6.1.2 生成器
6.2 RAG工作流程
6.2.1 数据提取
6.2.2 文本分割
6.2.3 向量化
6.2.4 数据检索
6.2.5 注入提示
6.2.6 提交给LLM
6.3 RAG与微调和提示词工程的比较
6.4 基于LangChain的RAG应用实战
6.4.1 基础环境准备
6.4.2 收集和加载数据
6.4.3 分割原始文档
6.4.4 数据向量化后入库
6.4.5 定义数据检索器
6.4.6 创建提示
6.4.7 调用LLM生成答案
第7章 RAG应用案例——使用RAG部署本地知识库
7.1 部署本地环境及安装数据库
7.1.1 在Python环境中创建虚拟环境并安装所需的库
7.1.2 安装phidata库
7.1.3 安装和配置Ollama
7.1.4 基于Ollama安装Llama 3模型和nomic-embed-text模型
7.1.5 下载和安装Docker并用Docker下载向量数据库的镜像
7.2 代码部分及前端展示配置
7.2.1 assistant.py代码
7.2.2 app.py代码
7.2.3 启动AI交互页面
7.2.4 前端交互功能及对应代码
7.3 调用云端大语言模型
7.3.1 配置大语言模型的API Key
7.3.2 修改本地RAG应用代码
7.3.3 启动并调用云端大语言模型
第8章 LLM本地部署与应用
8.1 硬件准备
8.2 操作系统选择
8.3 搭建环境所需组件
8.4 LLM常用知识介绍
8.4.1 分类
8.4.2 参数大小
8.4.3 训练过程
8.4.4 模型类型
8.4.5 模型开发框架
8.4.6 量化大小
8.5 量化技术
8.6 模型选择
8.6.1 通义千问
8.6.2 ChatGLM
8.6.3 Llama
8.7 模型应用实现方式
8.7.1 Chat
8.7.2 RAG
8.7.3 高效微调
8.8 通义千问1.5-0.5B本地Windows部署实战
8.8.1 介绍
8.8.2 环境要求
8.8.3 依赖库安装
8.8.4 快速使用
8.8.5 量化
8.9 基于LM Studio和AutoGen Studio使用通义千问
8.9.1 LM Studio介绍
8.9.2 AutoGen Studio介绍
8.9.3 LM Studio的使用
8.9.4 在LM Studio上启动模型的推理服务
8.9.5 启动AutoGen Studio服务
8.9.6 进入AutoGen Studio界面
8.9.7 使用AutoGen Studio配置LLM服务
8.9.8 把Agent中的模型置换成通义千问
8.9.9 运行并测试Agent
第9章 LLM与LoRA微调策略解读
9.1 LoRA技术
9.1.1 LoRA简介
9.1.2 LoRA工作原理
9.1.3 LoRA在LLM中的应用
9.1.4 实施方案
9.2 LoRA参数说明
9.2.1 注意力机制中的LoRA参数选择
9.2.2 LoRA网络结构中的参数选择
9.2.3 LoRA微调中基础模型的参数选择
9.3 LoRA扩展技术介绍
9.3.1 QLoRA介绍
9.3.2 Chain of LoRA方法介绍
9.4 LLM在LoRA微调中的性能分享
第10章 PEFT微调实战——打造医疗领域LLM
10.1 PEFT介绍
10.2 工具与环境准备
10.2.1 工具安装
10.2.2 环境搭建
10.3 模型微调实战
10.3.1 模型微调整体流程
10.3.2 项目目录结构说明
10.3.3 基础模型选择
10.3.4 微调数据集构建
10.3.5 LoRA微调主要参数配置
10.3.6 微调主要执行流程
10.3.7 运行模型微调代码
10.4 模型推理验证
第11章 Llama 3模型的微调、量化、部署和应用
11.1 准备工作
11.1.1 环境配置和依赖库安装
11.1.2 数据收集和预处理
11.2 微调Llama 3模型
11.2.1 微调的意义与目标
11.2.2 Llama 3模型下载
11.2.3 使用Llama-factory进行LoRA微调
11.3 模型量化
11.3.1 量化的概念与优势
11.3.2 量化工具Llama.cpp介绍
11.3.3 Llama.cpp部署
11.4 模型部署
11.4.1 部署环境选择
11.4.2 部署流程详解
11.5 低代码应用示例
11.5.1 搭建本地大语言模型
11.5.2 搭建用户界面
11.5.3 与知识库相连
11.6 未来展望
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜