万本电子书0元读

万本电子书0元读

顶部广告

大模型算法基础:Transformers原理与应用电子书

本书详细介绍了Transformer大模型算法基础,内容丰富,案例经典

售       价:¥

纸质售价:¥38.80购买纸书

0人正在读 | 0人评论 6.4

作       者:田永林、张亚洲、王飞跃

出  版  社:清华大学出版社

出版时间:2025-12-01

字       数:22.9万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
在人工智能迅猛发展的背景下,Transformer作为大模型的核心架构,已成为推动智能技术变革的重要引擎。本书梳理了Transformer的技术脉络与典型应用,旨在帮助读者全面理解这一划时代的信息机器。全书共6章,系统阐述Transformer模型的核心机制与演路径。第1章介绍自注意力机制等基础构件;第2~4章分别探讨Transformer在自然语言处理、计算机视觉和多模态学习中的应用,涵盖BERT、ViT、CLIP等代表性模型;第5章聚焦自动驾驶场景,展示Transformer在感知、预测与规划等模块中的统一建模潜力;第6章则讨论基于Transformer的AI智能体构建,展望其在通用智能系统中的未来发展方向。本书适合人工智能、计算机科学、认知科学等相关领域的高校师生、研究人员、发工程师及行业从业者阅读,也为关注AI技术发展的管理者与决策者提供了清晰的技术脉络与应用图景。<br/>【推荐语】<br/>本书详细介绍了Transformer大模型算法基础,内容丰富,案例经典<br/>
目录展开

内容简介

前言

第1章 Transformer的基本原理

1.1 Transformer编码器结构

1.1.1 自注意力层

1.1.2 前馈层

1.1.3 位置编码

1.1.4 层归一化

1.1.5 残差连接

1.2 Transformer解码器结构

1.2.1 互注意力层

1.2.2 序列掩码

1.3 Transformer特点分析

1.3.1 Transformer与CNN、RNN的区别和联系

1.3.2 Transformer的优劣势分析

小结

参考文献

第2章 语言Transformer

2.1 自然语言处理

2.1.1 自然语言理解

2.1.2 自然语言生成

2.1.3 自回归与自编码模型

2.1.4 Word2Vec模型

2.1.5 基于RNN的Seq2Seq方法

2.1.6 基于注意力的Seq2Seq方法

2.2 基于Transformer的自然语言处理模型

2.2.1 BERT模型

2.2.2 GPT模型

2.2.3 XLNet模型

2.2.4 BART模型

2.2.5 T-5模型

2.2.6 MoE模型

2.2.7 Switch Transformer模型

2.3 预训练语言模型

2.3.1 预训练方式

2.3.2 预训练任务

2.4 微调与迁移

2.4.1 微调方法

2.4.2 Prompt方法

2.5 大语言模型

2.5.1 大模型训练策略

2.5.2 大模型训练平台

2.5.3 大语言模型微调策略

小结

参考文献

第3章 视觉Transformer

3.1 ViT模型

3.1.1 基本结构

3.1.2 图像序列化

3.1.3 类别token

3.1.4 位置编码

3.1.5 编码器结构

3.2 视觉Transformer的一般框架及变体

3.2.1 视觉Transformer的一般框架

3.2.2 计算代价

3.2.3 表达能力

3.2.4 结构设计

3.3 基于Transformer的目标检测模型

3.3.1 DETR方法

3.3.2 YOLOS方法

3.3.3 Pix2Seq方法

3.3.4 研究总结

3.4 基于Transformer的图像分割模型

3.4.1 SETR方法

3.4.2 SegFormer方法

3.4.3 Segmenter方法

3.4.4 MaskFormer方法

3.4.5 QueryInst方法

3.4.6 ISTR方法

3.4.7 Panoptic SegFormer方法

3.4.8 研究总结

3.5 基于Transformer的预训练视觉模型

3.5.1 iGPT方法

3.5.2 BEIT方法

3.5.3 MAE方法

3.5.4 SAM模型

小结

参考文献

第4章 多模态Transformer

4.1 多模态数据类型及序列化方法

4.1.1 视觉数据序列化

4.1.2 语言数据序列化

4.1.3 点云数据序列化

4.2 多模态数据融合

4.2.1 对齐与非对齐式融合

4.2.2 不同时期的融合

4.2.3 对称与非对称式融合方法

4.3 多模态预训练

4.3.1 多模态掩码预测

4.3.2 跨模态关联任务

4.3.3 跨模态生成

4.3.4 多模态顺序预测

4.4 多模态预训练模型

4.4.1 ViLBERT模型

4.4.2 CLIP模型

4.4.3 Flamingo模型

4.4.4 DALL-E 2模型

4.4.5 BLIP模型

4.4.6 BLIP-2模型

4.4.7 InstructBLIP模型

4.4.8 MiniGPT-4模型

4.4.9 Meta-Transformer模型

4.4.10 LLaVA模型

小结

参考文献

第5章 Transformer在自动驾驶中的应用

5.1 基于Transformer的自动驾驶感知

5.1.1 基于Transformer的多模态融合感知

5.1.2 基于Transformer的BEV感知

5.1.3 基于Transformer的占用网格预测

5.2 基于Transformer的自动驾驶轨迹预测

5.2.1 mmTransformer模型

5.2.2 AgentFormer模型

5.2.3 WayFormer模型

5.3 基于Transformer的自动驾驶行为与轨迹规划

5.3.1 HMIL模型

5.3.2 PlanT模型

5.3.3 VTT模型

5.4 基于Transformer的端到端自动驾驶

5.4.1 UniAD模型

5.4.2 FusionAD模型

5.4.3 VistaGPT模型

小结

参考文献

第6章 基于Transformer的AI智能体

6.1 AI智能体组成与结构

6.1.1 AI智能体配置模块:角色塑造

6.1.2 AI智能体记忆模块:知识接入

6.1.3 AI智能体工具模块:功能拓展

6.1.4 AI智能体感知模块:信息分析

6.1.5 AI智能体规划模块:决策生成

6.1.6 AI智能体行动模块:动作产生

6.2 典型的AI智能体系统

6.2.1 LangChain

6.2.2 HuggingGPT

6.2.3 CHATDEV

6.2.4 RoboGen

6.2.5 Stanford AI Town

小结

参考文献

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部