自Transformer在2017年发布以来,自然语言处理领域就迈了 一个全新的时代。以Transformer为基础的模型,不断推动着自 然语言处理技术的步与革新。如今随着ChatGPT的发布与流行,Transformer也被越来越多的人所了解和使用。 本书以Hugging Face Transformers库为基础,旨在向读者介绍Transformer模型的基础知识和快速门方式,帮助读者完成训练和扩展。三位作者都是Hugging Face Transformers的创建者,深谙Transformer的原理与架构,将通过实际案例“手把手”地帮助读者构建各种自然语言处理任务,并不断挖掘Transformer的无限潜力,从而实现更广泛的应用和创新。
售 价:¥
纸质售价:¥97.30购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
O'Reilly Media, Inc.介绍
本书赞誉
前言
第1章 欢迎来到Transformer的世界
1.1 编码器-解码器框架
1.2 注意力机制
1.3 NLP的迁移学习
1.4 Hugging Face Transformers库:提供规范化接口
1.5 Transformer应用概览
1.6 Hugging Face生态系统
1.7 Transformer的主要挑战
1.8 本章小结
第2章 文本分类
2.1 数据集
2.2 将文本转换成词元
2.3 训练文本分类器
2.4 本章小结
第3章 Transformer架构剖析
3.1 Transformer架构
3.2 编码器
3.3 解码器
3.4 认识Transformer
3.5 本章小结
第4章 多语言命名实体识别
4.1 数据集
4.2 多语言Transformer
4.3 多语言词元化技术
4.4 命名实体识别中的Transformers
4.5 自定义Hugging Face Transformers库模型类
4.6 NER的词元化
4.7 性能度量
4.8 微调XLM-RoBERTa
4.9 错误分析
4.10 跨语言迁移
4.11 用模型小部件进行交互
4.12 本章小结
第5章 文本生成
5.1 生成连贯文本的挑战
5.2 贪婪搜索解码
5.3 束搜索解码
5.4 采样方法
5.5 top-k和核采样
5.6 哪种解码方法最好
5.7 本章小结
第6章 文本摘要
6.1 CNN/DailyMail数据集
6.2 文本摘要pipeline
6.3 比较不同的摘要
6.4 度量生成文本的质量
6.5 在CNN/DailyMail数据集上评估PEGASUS
6.6 训练摘要模型
6.7 本章小结
第7章 构建问答系统
7.1 构建基于评论的问答系统
7.2 评估并改进问答pipeline
7.3 生成式问答
7.4 本章小结
第8章 Transformer模型调优
8.1 以意图识别为例
8.2 创建性能基准
8.3 通过知识蒸馏减小模型大小
8.4 利用量化技术使模型运算更快
8.5 基准测试量化模型
8.6 使用ONNX和ONNX Runtime进行推理优化
8.7 使用权重剪枝使模型更稀疏
8.8 本章小结
第9章 零样本学习和少样本学习
9.1 构建GitHub issue标记任务
9.2 基线模型——朴素贝叶斯
9.3 零样本学习
9.4 少样本学习
9.5 利用无标注数据
9.6 本章小结
第10章 从零训练Transformer模型
10.1 如何寻找大型数据集
10.2 构建词元分析器
10.3 从零训练一个模型
10.4 结果与分析
10.5 本章小结
第11章 未来发展趋势
11.1 Transformer的扩展
11.2 其他应用领域
11.3 多模态的Transformer
11.4 继续前行的建议
关于作者
关于封面
推荐阅读
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜