万本电子书0元读

万本电子书0元读

顶部广告

AI Agent应用与项目实战电子书

1. 系统介绍Agent核心组件的构建原理与应用流程。 2. 全面介绍基于实际业务场景造专属Agent。 3.将大模型与Agent结合,有利于帮助读者造自己的私有助理

售       价:¥

纸质售价:¥57.90购买纸书

4人正在读 | 0人评论 6.5

作       者:唐宇迪,尹泽明

出  版  社:电子工业出版社

出版时间:2024-12-01

字       数:12.8万

所属分类: 科技 > 计算机/网络 > 多媒体/数据通信

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
随着大语言模型的日益火爆,各行各业都想把AI(人工智能)自己的业务场景,但是只依靠语言大模型就能解决业务场景的实际需求吗?要想真正把AI 落地肯定少不了要结合自己业务场景的数据,定制AI 所承担的角色,给它配置上需要使用的工具并按照标准化的流程办事。那么这些操作就可以使用本书讲述的Agent(智能体)来实现。本书使用通俗的语言讲解智能体各核心组件的构建原理与应用流程,基于主流智能体框架(Coze、AutoGenStudio)行案例应用实践,全流程解读如何基于实际业务场景造专属智能体。为了使读者将Agent 应用在自己的私有化场景中行落地应用,本书还讲解了如何微调本地大语言模型并将本地大语言模型与智能体结合,从而造你的私有助理。<br/>【推荐语】<br/>1. 系统介绍Agent核心组件的构建原理与应用流程。 2. 全面介绍基于实际业务场景造专属Agent。 3.将大模型与Agent结合,有利于帮助读者造自己的私有助理<br/>【作者】<br/>唐宇迪,华东理工大学博士,精通机器学习算法,主攻计算机视觉方向,著有《跟着迪哥学Python数据分析与机器学习实战》一书,线上选课学员超过30万人,累计发课程50余门,覆盖人工智能的各个热门方向。联通、移动、中信等公司的特邀企业培训导师,展线下与直播培训百余场,具有丰富的授课经验。课程通俗易懂,擅长通过地气的方式讲解复杂的算法问题。 尹泽明,北京邮电大学博士,多年来致力于人工智能、大数据、区块等新一代信息技术的创新应用,曾主持过电信运营企业全国集中智能客服系统和基于区块的身份认证系统的建设和运营工作,率先尝试和推动ASR、NLP、RPA等技术在面向公众用户和政企客户服务场景中的应用。<br/>
目录展开

内容简介

前言

第1章 Agent框架与应用

1.1 初识Agent

1.1.1 感知能力

1.1.2 思考能力

1.1.3 动作能力

1.1.4 记忆能力

1.2 Agent框架

1.2.1 Agent框架理念

1.2.2 常用的Agent框架

1.3 Multi-Agent多角色协作

1.3.1 SOP拆解

1.3.2 角色扮演

1.3.3 反馈迭代

1.3.4 监督控制

1.3.5 实例说明

1.4 Agent应用分析

1.4.1 Agent自身场景落地

1.4.2 Agent结合RPA场景落地

1.4.3 Agent多态具身机器人

第2章 使用Coze打造专属Agent

2.1 Coze平台

2.1.1 Coze平台的优势

2.1.2 Coze平台的界面

2.1.3 Coze平台的功能模块

2.2 Agent的实现流程

2.2.1 Agent需求分析

2.2.2 Agent架构设计

2.3 使用Coze平台打造专属的NBA新闻助手

2.3.1 需求分析与设计思路制定

2.3.2 NBA新闻助手的实现与测试

2.4 使用Coze平台打造小红书文案助手

2.4.1 需求分析与设计思路制定

2.4.2 小红书文案助手的实现与测试

第3章 打造专属领域的客服聊天机器人

3.1 客服聊天机器人概述

3.1.1 客服聊天机器人价值简介

3.1.2 客服聊天机器人研发工具

3.2 AI课程客服聊天机器人总体架构

3.2.1 前端功能设计

3.2.2 后端功能设计

3.3 AI课程客服聊天机器人应用实例

第4章 AutoGen Agent开发框架实战

4.1 AutoGen开发环境

4.1.1 Anaconda

4.1.2 PyCharm

4.1.3 AutoGen Studio

4.2 AutoGen Studio案例

4.2.1 案例介绍

4.2.2 AutoGen Studio模型配置

4.2.3 AutoGen Studio技能配置

4.2.4 AutoGen Studio本地化配置

第5章 生成式代理——以斯坦福AI小镇为例

5.1 生成式代理简介

5.2 斯坦福AI小镇项目简介

5.2.1 斯坦福AI小镇项目背景

5.2.2 斯坦福AI小镇设计原理

5.2.3 斯坦福AI小镇典型情景

5.2.4 交互体验

5.2.5 技术实现

5.2.6 社会影响

5.3 斯坦福AI小镇体验

5.3.1 资源准备

5.3.2 部署运行

5.4 生成式代理的行为和交互

5.4.1 模拟个体和个体间的交流

5.4.2 环境交互

5.4.3 示例“日常生活中的一天”

5.4.4 自发社会行为

5.5 生成式代理架构

5.5.1 记忆和检索

5.5.2 反思

5.5.3 计划和反应

5.6 沙盒环境实现

5.7 评估

5.7.1 评估程序

5.7.2 条件

5.7.3 分析

5.7.4 结果

5.8 生成式代理的进一步探讨

第6章 RAG检索架构分析与应用

6.1 RAG架构分析

6.1.1 检索器

6.1.2 生成器

6.2 RAG工作流程

6.2.1 数据提取

6.2.2 文本分割

6.2.3 向量化

6.2.4 数据检索

6.2.5 注入提示

6.2.6 提交给LLM

6.3 RAG与微调和提示词工程的比较

6.4 基于LangChain的RAG应用实战

6.4.1 基础环境准备

6.4.2 收集和加载数据

6.4.3 分割原始文档

6.4.4 数据向量化后入库

6.4.5 定义数据检索器

6.4.6 创建提示

6.4.7 调用LLM生成答案

第7章 RAG应用案例——使用RAG部署本地知识库

7.1 部署本地环境及安装数据库

7.1.1 在Python环境中创建虚拟环境并安装所需的库

7.1.2 安装phidata库

7.1.3 安装和配置Ollama

7.1.4 基于Ollama安装Llama 3模型和nomic-embed-text模型

7.1.5 下载和安装Docker并用Docker下载向量数据库的镜像

7.2 代码部分及前端展示配置

7.2.1 assistant.py代码

7.2.2 app.py代码

7.2.3 启动AI交互页面

7.2.4 前端交互功能及对应代码

7.3 调用云端大语言模型

7.3.1 配置大语言模型的API Key

7.3.2 修改本地RAG应用代码

7.3.3 启动并调用云端大语言模型

第8章 LLM本地部署与应用

8.1 硬件准备

8.2 操作系统选择

8.3 搭建环境所需组件

8.4 LLM常用知识介绍

8.4.1 分类

8.4.2 参数大小

8.4.3 训练过程

8.4.4 模型类型

8.4.5 模型开发框架

8.4.6 量化大小

8.5 量化技术

8.6 模型选择

8.6.1 通义千问

8.6.2 ChatGLM

8.6.3 Llama

8.7 模型应用实现方式

8.7.1 Chat

8.7.2 RAG

8.7.3 高效微调

8.8 通义千问1.5-0.5B本地Windows部署实战

8.8.1 介绍

8.8.2 环境要求

8.8.3 依赖库安装

8.8.4 快速使用

8.8.5 量化

8.9 基于LM Studio和AutoGen Studio使用通义千问

8.9.1 LM Studio介绍

8.9.2 AutoGen Studio介绍

8.9.3 LM Studio的使用

8.9.4 在LM Studio上启动模型的推理服务

8.9.5 启动AutoGen Studio服务

8.9.6 进入AutoGen Studio界面

8.9.7 使用AutoGen Studio配置LLM服务

8.9.8 把Agent中的模型置换成通义千问

8.9.9 运行并测试Agent

第9章 LLM与LoRA微调策略解读

9.1 LoRA技术

9.1.1 LoRA简介

9.1.2 LoRA工作原理

9.1.3 LoRA在LLM中的应用

9.1.4 实施方案

9.2 LoRA参数说明

9.2.1 注意力机制中的LoRA参数选择

9.2.2 LoRA网络结构中的参数选择

9.2.3 LoRA微调中基础模型的参数选择

9.3 LoRA扩展技术介绍

9.3.1 QLoRA介绍

9.3.2 Chain of LoRA方法介绍

9.4 LLM在LoRA微调中的性能分享

第10章 PEFT微调实战——打造医疗领域LLM

10.1 PEFT介绍

10.2 工具与环境准备

10.2.1 工具安装

10.2.2 环境搭建

10.3 模型微调实战

10.3.1 模型微调整体流程

10.3.2 项目目录结构说明

10.3.3 基础模型选择

10.3.4 微调数据集构建

10.3.5 LoRA微调主要参数配置

10.3.6 微调主要执行流程

10.3.7 运行模型微调代码

10.4 模型推理验证

第11章 Llama 3模型的微调、量化、部署和应用

11.1 准备工作

11.1.1 环境配置和依赖库安装

11.1.2 数据收集和预处理

11.2 微调Llama 3模型

11.2.1 微调的意义与目标

11.2.2 Llama 3模型下载

11.2.3 使用Llama-factory进行LoRA微调

11.3 模型量化

11.3.1 量化的概念与优势

11.3.2 量化工具Llama.cpp介绍

11.3.3 Llama.cpp部署

11.4 模型部署

11.4.1 部署环境选择

11.4.2 部署流程详解

11.5 低代码应用示例

11.5.1 搭建本地大语言模型

11.5.2 搭建用户界面

11.5.3 与知识库相连

11.6 未来展望

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部