万本电子书0元读

万本电子书0元读

顶部广告

大语言模型认识与应用电子书

本书以“零门槛、深探索”为理念,为读者揭LLM的本质逻辑。无须编程与公式,从技术演化到实战应用,从单兵作战到多智能体协作,从手机端运行到超算集群的奥秘,书中以生活化的案例与类比,将晦涩概念转化为鲜活认知。你将理解:为何LLM像“超级词典+概率魔术师”;如何通过提问技巧唤醒它的潜能;当它与数据库、科研工具联动时,如何成为你的“数字外脑”;更重要的是,书中直面技术风险,引导你清醒看待AI的边界与价值。 这是一场为普通人定制的认知升级之旅。通过八章循序渐的探索,你将不再被“黑箱”困扰,而是手握原理与工具,成为技术时代的“主动对话者”。

售       价:¥

纸质售价:¥54.60购买纸书

20人正在读 | 0人评论 6.4

作       者:李倩,崔立真,刘磊

出  版  社:机械工业出版社

出版时间:2025-06-25

字       数:11.2万

所属分类: 教育 > 大中专教材 > 研究生/本科/专科教材

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书旨在帮助非计算机专业本科生快速掌握大语言模型(LLM)的门知识和实用技术。全书共8章,阐述了LLM如何助力解决日常生活与科研中的难题,并深度挖掘了提示工程、检索增强技术以及LLM在智能体领域的应用等实用技巧。同时,书中还涵盖了LLM的应用环境、风险与安全技术,强调理性使用LLM技术的重要性。借助简洁易懂的语言和实际案例,读者既能洞悉LLM的核心理念,又能熟练驾驭其实战应用,深切感受科技创新如何无缝融日常学习、工作和生活,助力快速获取信息和提高工作效率。本书适合作为普通高等学校非计算机专业本科生人工智能类通识课或选修课教材或参考书,也可供对大语言模型技术与应用感兴趣的读者参考阅读。<br/>【推荐语】<br/>本书以“零门槛、深探索”为理念,为读者揭LLM的本质逻辑。无须编程与公式,从技术演化到实战应用,从单兵作战到多智能体协作,从手机端运行到超算集群的奥秘,书中以生活化的案例与类比,将晦涩概念转化为鲜活认知。你将理解:为何LLM像“超级词典+概率魔术师”;如何通过提问技巧唤醒它的潜能;当它与数据库、科研工具联动时,如何成为你的“数字外脑”;更重要的是,书中直面技术风险,引导你清醒看待AI的边界与价值。 这是一场为普通人定制的认知升级之旅。通过八章循序渐的探索,你将不再被“黑箱”困扰,而是手握原理与工具,成为技术时代的“主动对话者”。<br/>【作者】<br/>李倩,山东大学助理研究员,硕士生导师。中国计算机学会(CCF)自然语言处理专委会执行委员、信息系统专委会执行委员,中国中文信息学会(CIPS)社会媒体处理专委会委员、青年工作委员会委员,选腾讯犀牛鸟菁英人才培养计划。主要研究方向为知识图谱与大语言模型,在TKDE、TNNLS等CCF A、B类和中科院一区刊物及ACL、IJCAI、EMNLP国际顶级会议上发表高水平论文10余篇,主持1项国家自然科学基金青年项目、1项中央高校基本科研项目、1项山东大学本科教育教学改革项目。崔立真,山东大学教授,博士生导师,软件学院院长,电子商务交易技术国家工程实验室副主任。中国计算机学会(CCF)协同计算专委会副主任,数据库专委会常务委员,软件工程教指委委员。主要研究方向为软件与数据工程。国家重研发计划项目首席科学家,主持国家重研发计划项目和课题、国家自然科学基金重项目等。以第一完成人获国家教学成果二等奖、山东省科技步奖一等奖。刘磊,山东大学齐鲁青年学者特聘教授,泰山学者青年专家,博士生导师,国家重研发计划项目负责人,山东大学软件学院数据科学与大数据技术系副主任,中国计算机学会高级会员,中国计算机学会青年计算机科技论坛济南主席。主要研究方向为大模型多智能体、网络智能、5G网络切片与网络虚拟化资源调度优化。<br/>
目录展开

前折页

书名页

知名LLM推荐语

前言

致谢

第1章 导论

1.1 自然语言

1.1.1 歧义性

1.1.2 简略性

1.1.3 易变性

1.2 语言模型

1.2.1 基于规则的语言模型

1.2.2 统计语言模型

1.2.3 神经网络语言模型

1.2.4 预训练语言模型

1.2.5 大语言模型

1.3 技术成熟度曲线

1.4 总结

1.5 习题

第2章 语言模型基础技术

2.1 统计语言模型

2.2 神经网络语言模型

2.2.1 Word2Vec模型

2.2.2 RNN模型

2.3 预训练语言模型

2.3.1 编码器-解码器架构

2.3.2 注意力机制

2.3.3 Transformer架构

2.3.4 MoE架构

2.4 大语言模型

2.4.1 大语言模型之大

2.4.2 ChatGPT——闭源典型代表

2.4.3 LLaMA——开源典型代表

2.5 多模态大语言模型

2.5.1 多模态定义

2.5.2 多模态大语言模型的架构

2.5.3 应用领域

2.6 大语言模型的开发与使用模式

2.6.1 预训练微调模式

2.6.2 提示指令模式

2.7 总结

2.8 习题

第3章 大语言模型的使用

3.1 基本概念

3.1.1 提示学习

3.1.2 提示词范式

3.1.3 提示工程的优势

3.2 提示词的优化技巧

3.2.1 清晰准确表述

3.2.2 赋予身份角色

3.2.3 留出思考时间

3.2.4 提供相似示例

3.2.5 情感物质激励

3.2.6 结构化提示词

3.3 思维链

3.3.1 基本范式

3.3.2 零样本思维链

3.3.3 多思维链

3.4 高级思维链

3.4.1 思维树

3.4.2 思维图

3.5 总结

3.6 习题

第4章 大语言模型的多工具

4.1 RAG基本概念

4.1.1 必要性

4.1.2 发展历程

4.2 初级RAG

4.3 高级RAG

4.3.1 预检索

4.3.2 后检索

4.3.3 优缺点

4.4 模块化RAG

4.4.1 模块组

4.4.2 模式组

4.4.3 优缺点

4.5 检索自由型RAG

4.6 知识图谱型RAG

4.6.1 知识图谱概念

4.6.2 知识图谱构建

4.6.3 GraphRAG

4.6.4 LightRAG

4.7 总结

4.8 习题

第5章 大语言模型的多智能体

5.1 智能体基本概念

5.1.1 智能体的定义

5.1.2 智能体的特征

5.1.3 智能体的行动力

5.2 LLM作为智能体大脑

5.2.1 LLM出现前的智能体

5.2.2 LLM出现后的智能体

5.3 单智能体模式

5.3.1 单智能体特点

5.3.2 ReAct框架

5.3.3 ReAct示例

5.3.4 ReAct特点

5.4 多智能体模式

5.4.1 多智能体特点

5.4.2 两智能体系统

5.4.3 三智能体模式

5.5 群体智能体智能

5.5.1 群体智能体特点

5.5.2 ChatDev框架

5.5.3 ChatDev示例

5.6 生成式智能体

5.6.1 生成式智能体特点

5.6.2 斯坦福AI小镇简介

5.6.3 斯坦福AI小镇框架

5.7 总结

5.8 习题

第6章 大语言模型的多载体

6.1 超大型云服务器

6.1.1 基本配置

6.1.2 适配的语言模型

6.2 小型服务器

6.2.1 基本配置

6.2.2 适配的语言模型

6.3 手机端

6.3.1 基本配置

6.3.2 MiniCPM模型

6.4 数据库端

6.4.1 基本配置

6.4.2 HeatWave GenAI

6.5 端云协同

6.5.1 端云协同部署

6.5.2 适配的语言模型

6.5.3 技术挑战

6.6 软硬件适配与协同优化

6.6.1 现存软硬件配置

6.6.2 大模型的软硬件适配

6.6.3 大模型的软硬件协同优化

6.7 总结

6.8 习题

第7章 大语言模型的风险及安全技术

7.1 LLM面临的风险

7.1.1 幻觉问题

7.1.2 偏见歧视

7.1.3 隐私泄露

7.1.4 伦理问题

7.2 LLM的安全技术

7.2.1 减少幻觉和偏见

7.2.2 防御提示注入攻击

7.2.3 减少外部工具威胁

7.2.4 严查伦理问题

7.3 硅基人工智能已/将具有意识

7.3.1 碳基生物

7.3.2 硅基人工智能

7.3.3 硅基人工智能是否已/将具有意识

7.4 总结

7.5 习题

第8章 大语言模型的调用方式

8.1 在线LLM的网页调用

8.1.1 DeepSeek

8.1.2 星火认知

8.1.3 文心一言

8.1.4 通义千问

8.1.5 混元

8.1.6 豆包

8.1.7 ChatGPT

8.1.8 DALL·E

8.1.9 PixVerse

8.2 在线LLM的API调用

8.2.1 基础设置

8.2.2 DeepSeek

8.2.3 星火认知

8.2.4 文心一言

8.2.5 通义千问

8.2.6 混元

8.2.7 ChatGPT

8.3 开源LLM的代码调用

8.3.1 DeepSeek

8.3.2 Qwen

8.3.3 ChatGLM

8.3.4 MOSS

8.3.5 LLaMA

8.4 总结

8.5 习题

附录

附录A 实验

附录B 习题参考答案

参考文献

后折页

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部