万本电子书0元读

万本电子书0元读

顶部广告

PyTorch自然语言处理入门与实战电子书

运用PyTorch 探索自然语言处理与机器学习! 这是一本兼顾理论基础和工程实践的门级教程,基于 PyTorch,揭示自然语言处理的原理,描绘学术研究脉络,通过实践与项目展现技术与应用的细节,并提供可扩展阅读的论文出处。 1.路线图:从基础工具、基本原理,到常用模型,再到领域前沿。 2.有项目:中文地址解析 诗句补充。 3.可实践:给出代码、数据集和论文出处。

售       价:¥

纸质售价:¥63.10购买纸书

132人正在读 | 0人评论 6.5

作       者:孙小文 王薪宇 杨谈 著

出  版  社:人民邮电出版社有限公司

出版时间:2022-11-01

字       数:24.3万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
运用PyTorch 探索自然语言处理与机器学习! 这是一本兼顾理论基础和工程实践的门级教程,基于 PyTorch,揭示自然语言处理的原理,描绘经典学术研究脉络,通过实践与项目展现技术与应用的细节,并提供可扩展阅读的论文出处。<br/>【推荐语】<br/>运用PyTorch 探索自然语言处理与机器学习! 这是一本兼顾理论基础和工程实践的门级教程,基于 PyTorch,揭示自然语言处理的原理,描绘学术研究脉络,通过实践与项目展现技术与应用的细节,并提供可扩展阅读的论文出处。 1.路线图:从基础工具、基本原理,到常用模型,再到领域前沿。 2.有项目:中文地址解析 诗句补充。 3.可实践:给出代码、数据集和论文出处。<br/>【作者】<br/>孙小文:毕业于北京邮电大学计算机学院(国家示范性软件学院),目前就职于微软(中国),研究领域包括自然语言处理、分布式存储和计算、搜索技术。 王薪宇:毕业于北京邮电大学计算机学院(国家示范性软件学院),曾在知名互联网公司工作,主要研究领域为自然语言处理。 杨谈:北京邮电大学计算机学院(国家示范性软件学院)副教授,作为主研人或项目负责人参与了多个国家项目和企业合作项目。<br/>
目录展开

内容提要

前 言

自然语言处理领域有什么前途

本书的特色

本书的内容

本书面向的读者对象

第1篇 自然语言处理基础篇

第1章 自然语言处理概述

1.1 什么是自然语言处理

1.2 自然语言处理中的挑战

1.3 自然语言处理中的常用技术

1.4 机器学习中的常见问题

1.5 小结

第2章 Python自然语言处理基础

2.1 搭建环境

2.2 用Python处理字符串

2.3 用Python处理语料

2.4 Python的一些特性

2.5 在Python中调用其他语言

2.6 小结

第2篇 PyTorch入门篇

第3章 PyTorch介绍

3.1 概述

3.2 与其他框架的比较

3.3 PyTorch环境配置

3.4 Transformers简介及安装

3.5 Apex简介及安装

3.6 小结

第4章 PyTorch基本使用方法

4.1 张量的使用

4.2 使用torch.nn

4.3 激活函数

4.4 损失函数

4.5 优化器

4.6 数据加载

4.7 使用PyTorch实现逻辑回归

4.8 TorchText

4.9 使用TensorBoard

4.10 小结

第5章 热身:使用字符级RNN分类帖子

5.1 数据与目标

5.2 输入与输出

5.3 字符级RNN

5.4 数据预处理

5.5 训练与评估

5.6 保存和加载模型

5.7 开发应用

5.8 小结

第3篇 用PyTorch完成自然语言处理任务篇

第6章 分词问题

6.1 中文分词

6.2 分词原理

6.3 使用第三方工具分词

6.4 实践

6.5 小结

第7章 RNN

7.1 RNN的原理

7.2 PyTorch中的RNN

7.3 RNN可以完成的任务

7.4 实践:使用PyTorch自带的RNN完成帖子分类

7.5 小结

第8章 词嵌入

8.1 概述

8.2 Word2vec

8.3 GloVe

8.4 实践:使用预训练词向量完成帖子标题分类

8.5 小结

第9章 Seq2seq

9.1 概述

9.2 使用PyTorch实现Seq2seq[1]

9.3 实践:使用Seq2seq完成机器翻译任务

9.4 小结

第10章 注意力机制

10.1 注意力机制的起源

10.2 使用注意力机制的视觉循环模型

10.3 Seq2seq中的注意力机制

10.4 自注意力机制

10.5 其他注意力机制

10.6 小结

第11章 Transformer

11.1 Transformer的背景

11.2 基于卷积网络的Seq2seq

11.3 Transformer的结构

11.4 Transformer的改进

11.5 小结

第12章 预训练语言模型

12.1 概述

12.2 ELMo

12.3 GPT

12.4 BERT

12.5 Hugging Face Transformers

12.6 其他开源中文预训练模型

12.7 实践:使用Hugging Face Transformers中的BERT做帖子标题分类

12.8 小结

第4篇 实战篇

第13章 项目:中文地址解析

13.1 数据集

13.2 词向量

13.3 BERT

13.4 HTML5演示程序开发

13.5 小结

第14章 项目:诗句补充

14.1 了解chinese-poetry数据集

14.2 准备训练数据

14.3 实现基本的LSTM

14.4 根据句子长度分组

14.5 使用预训练词向量初始化Embedding层

14.6 使用Transformer完成诗句生成

14.7 使用GPT-2完成对诗模型

14.8 开发HTML5演示程序

14.9 小结

参考文献

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部