万本电子书0元读

万本电子书0元读

顶部广告

深入浅出Embedding:原理解析与应用实践电子书

售       价:¥

24人正在读 | 0人评论 6.8

作       者:吴茂贵,王红星

出  版  社:机械工业出版社

出版时间:2021-05-01

字       数:25.4万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
这是一本系统、*、理论与实践相结合的Embedding技术指南,由资深的AI技术专家和高级数据科学家撰写,得到了黄铁军、韦青、张峥、周明等中国人工智能领域的领军人物的一致好评和推荐。      在内容方面,本书理论与实操兼顾,一方面系统讲解了Embedding的基础、技术、原理、方法和性能优化,一方面详细列举和分析了Embedding在机器学习性能提升、中英文翻译、推荐系统等6个重要场景的应用实践;在写作方式上,秉承复杂问题简单化的原则,尽量避免复杂的数学公式,尽量采用可视化的表达方式,旨在降低本书的学习门槛,让读者能看得完、学得会。      全书一共16章,分为两个部分:      第1部分(第1~9章)Embedding理论知识      主要讲解Embedding的基础知识、原理以及如何让Embedding落地的相关技术,如TensorFlow和PyTorch中的Embedding层、CNN算法、RNN算法、迁移学习方法等,重点介绍了Transformer和基于它的GPT、BERT预训练模型及BERT的多种改进版本等。      第二部分(第10 ~16章)Embedding应用实例      通过6个实例介绍了Embedding及相关技术的实际应用,包括如何使用Embedding提升传统机器学习性,如何把Embedding技术应用到推荐系统中,如何使用Embedding技术提升NLP模型的性能等。
目录展开

版权页

目录

前言

第一部分 Embedding基础知识

第1章 万物皆可嵌入

1.1 处理序列问题的一般步骤

1.2 Word Embedding

1.2.1 word2vec之前

1.2.2 CBOW模型

1.2.3 Skip-Gram模型

1.2.4 可视化Skip-Gram模型实现过程

1.2.5 Hierarchical Softmax优化

1.2.6 Negative Sampling优化

1.3 Item Embedding

1.3.1 微软推荐系统使用Item Embedding

1.3.2 Airbnb推荐系统使用Item Embedding

1.4 用Embedding处理分类特征

1.5 Graph Embedding

1.5.1 DeepWalk方法

1.5.2 LINE方法

1.5.3 node2vec方法

1.5.4 Graph Embedding在阿里的应用

1.5.5 知识图谱助力推荐系统实例

1.6 Contextual Word Embedding

1.6.1 多种预训练模型概述

1.6.2 多种预训练模型的发展脉络

1.6.3 各种预训练模型的优缺点

1.6.4 常用预训练模型

1.6.5 Transformer的应用

1.7 使用Word Embedding实现中文自动摘要

1.7.1 背景说明

1.7.2 预处理中文语料库

1.7.3 生成词向量

1.7.4 把文档的词转换为词向量

1.7.5 生成各主题的关键词

1.7.6 查看运行结果

1.8 小结

第2章 获取Embedding的方法

2.1 使用PyTorch的Embedding Layer

2.1.1 语法格式

2.1.2 简单实例

2.1.3 初始化

2.2 使用TensorFlow 2.0的Embedding Layer

2.2.1 语法格式

2.2.2 简单实例

2.3 从预训练模型获取Embedding

2.3.1 背景说明

2.3.2 下载IMDB数据集

2.3.3 进行分词

2.3.4 下载并预处理GloVe词嵌入

2.3.5 构建模型

2.3.6 训练模型

2.3.7 可视化训练结果

2.3.8 不使用预训练词嵌入的情况

2.4 小结

第3章 计算机视觉处理

3.1 卷积神经网络

3.1.1 卷积网络的一般架构

3.1.2 增加通道的魅力

3.1.3 加深网络的动机

3.1.4 残差连接

3.2 使用预训练模型

3.2.1 迁移学习简介

3.2.2 使用预训练模型的方法

3.3 获取预训练模型

3.4 使用PyTorch实现数据迁移实例

3.4.1 特征提取实例

3.4.2 微调实例

3.5 小结

第4章 文本及序列处理

4.1 循环网络的基本结构

4.1.1 标准循环神经网络

4.1.2 深度循环神经网络

4.1.3 LSTM网络结构

4.1.4 GRU网络结构

4.1.5 双向循环神经网络

4.2 构建一些特殊模型

4.2.1 Encoder-Decoder模型

4.2.2 Seq2Seq模型

4.3 小结

第5章 注意力机制

5.1 注意力机制概述

5.1.1 两种常见的注意力机制

5.1.2 注意力机制的本质

5.2 带注意力机制的Encoder-Decoder模型

5.2.1 引入注意力机制

5.2.2 计算注意力分配值

5.2.3 使用PyTorch实现带注意力机制的Encoder-Decoder模型

5.3 可视化Transformer

5.3.1 Transformer的顶层设计

5.3.2 Encoder与Decoder的输入

5.3.3 高并发长记忆的实现

5.3.4 为加深Transformer网络层保驾护航的几种方法

5.3.5 如何自监督学习

5.4 使用PyTorch实现Transformer

5.4.1 Transformer背景介绍

5.4.2 构建Encoder-Decoder模型

5.4.3 构建Encoder

5.4.4 构建Decoder

5.4.5 构建MultiHeadedAttention

5.4.6 构建前馈网络层

5.4.7 预处理输入数据

5.4.8 构建完整网络

5.4.9 训练模型

5.4.10 实现一个简单实例

5.5 Transformer-XL

5.5.1 引入循环机制

5.5.2 使用相对位置编码

5.5.3 Transformer-XL计算过程

5.6 使用PyTorch构建Transformer-XL

5.6.1 构建单个Head Attention

5.6.2 构建MultiHeadAttention

5.6.3 构建Decoder

5.7 Reformer

5.7.1 使用局部敏感哈希

5.7.2 使用可逆残差网络

5.8 小结

第6章 从Word Embedding到ELMo

6.1 从word2vec到ELMo

6.2 可视化ELMo原理

6.2.1 字符编码层

6.2.2 双向语言模型

6.2.3 生成ELMo词嵌入

6.3 小结

第7章 从ELMo到BERT和GPT

7.1 ELMo的优缺点

7.2 可视化BERT原理

7.2.1 BERT的整体架构

7.2.2 BERT的输入

7.2.3 掩码语言模型

7.2.4 预测下一个句子

7.2.5 微调

7.2.6 使用特征提取方法

7.3 使用PyTorch实现BERT

7.3.1 BERTEmbedding类的代码

7.3.2 TransformerBlock类的代码

7.3.3 构建BERT的代码

7.4 可视化GPT原理

7.4.1 GPT简介

7.4.2 GPT的整体架构

7.4.3 GPT的模型结构

7.4.4 GPT-2的Multi-Head与BERT的Multi-Head之间的区别

7.4.5 GPT-2的输入

7.4.6 GPT-2计算遮掩自注意力的详细过程

7.4.7 输出

7.4.8 GPT与GPT-2的异同

7.5 GPT-3简介

7.6 小结

第8章 BERT的优化方法

8.1 可视化XLNet原理

8.1.1 排列语言模型简介

8.1.2 使用双流自注意力机制

8.1.3 融入Transformer-XL的理念

8.1.4 改进后的效果

8.2 ALBERT方法

8.2.1 分解Vocabulary Embedding矩阵

8.2.2 跨层共享参数

8.2.3 用SOP代替NSP方法

8.2.4 其他优化方法

8.3 ELECTRA方法

8.3.1 ELECTRA概述

8.3.2 RTD结构

8.3.3 损失函数

8.3.4 ELECTRA与GAN的异同

8.3.5 评估

8.4 小结

第9章 推荐系统

9.1 推荐系统概述

9.1.1 推荐系统的一般流程

9.1.2 常用推荐算法

9.2 协同过滤

9.2.1 基于用户的协同过滤

9.2.2 基于物品的协同过滤

9.3 深度学习在推荐系统中的应用

9.3.1 协同过滤中与神经网络结合

9.3.2 融入多层感知机的推荐系统

9.3.3 融入卷积网络的推荐系统

9.3.4 融入Transformer的推荐系统

9.4 小结

第二部分 Embedding应用实例

第10章 用Embedding表现分类特征

10.1 项目背景

10.1.1 项目概述

10.1.2 数据集说明

10.2 TensorFlow 2详细实现

10.2.1 导入TensorFlow和其他库

10.2.2 导入数据集并创建dataframe

10.2.3 将dataframe拆分为训练、验证和测试集

10.2.4 用tf.data创建输入流水线

10.2.5 TensorFlow提供的几种处理特征列的方法

10.2.6 选择特征

10.2.7 创建网络的输入层

10.2.8 创建、编译和训练模型

10.2.9 可视化训练过程

10.2.10 测试模型

10.3 小结

第11章 用Embedding提升机器学习性能

11.1 项目概述

11.1.1 数据集简介

11.1.2 导入数据

11.1.3 预处理数据

11.1.4 定义公共函数

11.2 使用Embedding提升神经网络性能

11.2.1 基于独热编码的模型

11.2.2 基于Embedding的模型

11.3 构建XGBoost模型

11.4 使用Embedding数据的XGBoost模型

11.5 可视化Embedding数据

11.6 小结

第12章 用Transformer实现英译中

12.1 TensorFlow 2+实例概述

12.2 预处理数据

12.2.1 下载数据

12.2.2 分割数据

12.2.3 创建英文语料字典

12.2.4 创建中文语料字典

12.2.5 定义编码函数

12.2.6 过滤数据

12.2.7 创建训练集和验证集

12.3 构建Transformer模型

12.3.1 Transformer模型架构图

12.3.2 架构说明

12.3.3 构建scaled_dot_product_attention模块

12.3.4 构建MultiHeadAttention模块

12.3.5 构建point_wise_feed_forward_network模块

12.3.6 构建EncoderLayer模块

12.3.7 构建Encoder模块

12.3.8 构建DecoderLayer模块

12.3.9 构建Decoder模块

12.3.10 构建Transformer模型

12.3.11 定义掩码函数

12.4 定义损失函数

12.5 定义优化器

12.6 训练模型

12.6.1 实例化Transformer

12.6.2 设置checkpoint

12.6.3 生成多种掩码

12.6.4 定义训练模型函数

12.6.5 训练模型

12.7 评估预测模型

12.7.1 定义评估函数

12.7.2 测试翻译几个简单语句

12.8 可视化注意力权重

12.9 小结

第13章 Embedding技术在推荐系统中的应用

13.1 Embedding在Airbnb推荐系统中的应用

13.2 Transformer在阿里推荐系统中的应用

13.3 BERT在美团推荐系统中的应用

13.4 小结

第14章 用BERT实现中文语句分类

14.1 背景说明

14.1.1 查看中文BERT字典里的一些信息

14.1.2 使用tokenizer分割中文语句

14.2 可视化BERT注意力权重

14.2.1 BERT对MASK字的预测

14.2.2 导入可视化需要的库

14.2.3 可视化

14.3 用BERT预训练模型微调下游任务

14.3.1 准备原始文本数据

14.3.2 将原始文本转换成BERT的输入格式

14.3.3 定义读取数据的函数

14.3.4 读取数据并进行数据转换

14.3.5 增加一个批量维度

14.3.6 查看一个批次数据样例

14.3.7 微调BERT完成下游任务

14.3.8 查看微调后模型的结构

14.4 训练模型

14.4.1 定义预测函数

14.4.2 训练模型

14.5 测试模型

14.5.1 用新数据测试模型

14.5.2 比较微调前后的数据异同

14.5.3 可视化注意力权重

14.6 小结

第15章 用GPT-2生成文本

15.1 GPT-2概述

15.2 用GPT-2生成新闻

15.2.1 定义随机选择函数

15.2.2 使用预训练模型生成新闻

15.3 微调GPT-2生成戏剧文本

15.3.1 读取文件

15.3.2 对文件进行分词

15.3.3 把数据集转换为可迭代对象

15.3.4 训练模型

15.3.5 使用模型生成文本

15.4 小结

第16章 Embedding技术总结

16.1 Embedding技术回顾

16.1.1 Embedding表示

16.1.2 多种学习Embedding表示的算法

16.1.3 几种Embedding衍生技术

16.1.4 Embedding技术的不足

16.2 Embedding技术展望

16.2.1 从Embedding的表示方面进行优化

16.2.2 从Embedding的结构上进行优化

16.3 小结

附录A 基于GPU的TensorFlow 2+、PyTorch 1+升级安装

附录B 语言模型

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部