万本电子书0元读

万本电子书0元读

顶部广告

Transformer原理解析及中文项目实践(微课视频版)电子书

本书不仅涵盖了Transformer的基础知识,还扩展到其变体模型(如BERT、GPT等)及其在实际项目中的应用,还将介绍如何使用HuggingFace库行快速发与实践,帮助读者更高效地部署和应用Transformer模型。通过本书的学习,读者将能够在自然语言处理、文本生成、情感分析、命名实体识别等领域中,应用Transformer及其变体,提升自己的AI技术水平。

售       价:¥

纸质售价:¥69.00购买纸书

3人正在读 | 0人评论 6.6

作       者:沈志龙

出  版  社:清华大学出版社

出版时间:2025-08-01

字       数:13.7万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书深浅出地介绍了深度学习中的序列模型及其发展历程,重讲解了Transformer架构及其变体的原理与实战应用。全书共5章,旨在帮助读者从理论基础到实战应用,全面掌握Transformer技术。第1章详细介绍RNN和LSTM的原理、代码实战及存在的问题与挑战。第2章全面剖析了Transformer的总体架构、核心思想及各组成部分的实现方法。第3章从自定义代码出发,详细地讲解了词嵌、多头注意力层、前馈网络层、编码器层和解码器层的构建方法,以及如何训练Transformer模型。第4章介绍Transformer变体与阶部分。第5章介绍利用HuggingFace实践Transformer,首先介绍了HuggingFace社区和Transformers库,然后通过实际应用案例,如文本分类、情感分类、命名实体识别等,展示了如何使用Transformers库行项目发。最后,讲解了模型微调的各种方法,以及Transformer的影响和未来展望。本书适合对深度学习、序列模型和Transformer感兴趣的读者,无论是初学者还是有一定基础的发者都能从中获得丰富的理论知识和实践经验。同时,本书也可作为高等院校和培训机构相关专业的教学参考书。<br/>【推荐语】<br/>本书不仅涵盖了Transformer的基础知识,还扩展到其变体模型(如BERT、GPT等)及其在实际项目中的应用,还将介绍如何使用HuggingFace库行快速发与实践,帮助读者更高效地部署和应用Transformer模型。通过本书的学习,读者将能够在自然语言处理、文本生成、情感分析、命名实体识别等领域中,应用Transformer及其变体,提升自己的AI技术水平。<br/>【作者】<br/>沈志龙,统计学硕士、AI算法,拥有数学和统计学背景,对自然语言处理、机器学习、深度学习等领域具有深厚的理论知识和实践经验。在数据分析和挖掘领域耕耘多年,对数据分析、机器学习、深度学习和知识图谱等方向有深的研究和探索。在文本分类、命名实体识别、文本生成等自然语言处理任务上具有丰富的实战经验,对于Transformer技术应该具备的核心专业能力有深的理解和掌握。<br/>
目录展开

封面页

书名页

版权页

作者简介

内容简介

前言

目录

第1章 引言

1.1 深度学习与序列模型的进化

1.1.1 RNN原理

1.1.2 RNN代码实践

1.1.3 RNN的问题与挑战

1.1.4 LSTM原理

1.1.5 LSTM代码实践

1.1.6 LSTM的问题与挑战

1.2 Transformer的诞生背景

1.2.1 Seq2Seq模型

1.2.2 Seq2Seq代码实践

1.2.3 注意力机制的崛起

1.2.4 注意力机制代码解读

1.2.5 论文“Attention is All You Need”简介

第2章 Transformer架构解析

2.1 Transformer总览

2.1.1 Transformer的核心思想

2.1.2 Transformer的总体架构

2.2 Transformer的实现

2.2.1 自注意力机制的原理和实现

2.2.2 多头注意力的原理和实现

2.2.3 位置编码的作用和实现

2.2.4 前馈网络层

2.2.5 残差连接和层归一化

2.2.6 解码器的结构和功能

第3章 训练Transformer

3.1 自定义Transformer代码

3.1.1 词嵌入和位置编码

3.1.2 多头注意力层

3.1.3 前馈网络层

3.1.4 编码器层和解码器层

3.1.5 构建Transformer模型

3.1.6 训练Transformer模型

3.2 实践训练

3.2.1 数据准备

3.2.2 模型定义及训练

3.2.3 模型预测

第4章 Transformer变体与进阶

4.1 BERT

4.1.1 BERT架构与原理

4.1.2 BERT训练过程解析

4.2 GPT系列

4.2.1 从GPT到GPT-4o

4.2.2 GPT训练过程解析

4.3 其他变体

4.3.1 ALBERT

4.3.2 RoBERTa

4.3.3 T5

4.3.4 知识蒸馏原理及实践

第5章 利用Hugging Face实践Transformer

5.1 Hugging Face简介

5.1.1 社区与资源介绍

5.1.2 Transformers库概览

5.2 快速开始

5.2.1 Transformers库

5.2.2 Datasets加载数据集

5.2.3 Tokenizer文本处理

5.2.4 预训练模型的加载

5.2.5 Evaluate评估

5.2.6 Trainer训练

5.3 实际应用案例

5.3.1 文本分类

5.3.2 情感分类

5.3.3 命名实体识别

5.3.4 文本相似度

5.3.5 机器阅读理解

5.3.6 文本摘要

5.3.7 生成式对话机器人

5.4 模型高效微调

5.4.1 微调原理介绍

5.4.2 Freeze微调原理及实践

5.4.3 Prompt-Tuning微调原理及实践

5.4.4 Prefix Tuning微调原理及实践

5.4.5 P-Tuning微调原理及实践

5.4.6 LoRA微调原理及实践

5.4.7 AdaLoRA微调原理及实践

5.4.8 QLoRA微调原理及实践

5.5 Transformer的影响

5.6 未来展望

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部