深度学习应用所使用的大部分数据是由自然语言处理(NLP)提供的,而TensorFlow是目前比较重要的深度学习框架。面对当今巨量数据流中众多的非结构化数据,本书详细讲解如何将TensorFlow与NLP二者结合以提供有效的工具,以及如何将这些工具应用于具体的NLP任务。 本书首先介绍NLP和TensorFlow的基础知识,之后讲解如何使用Word2vec及其高级扩展,以便通过创建词嵌将词序列转换为深度学习算法可用的向量。本书还介绍如何通过卷积神经网络(CNN)和递归神经网络(RNN)等经典深度学习算法执行句子分类和语言生成等重要的NLP任务。你将学习如何在NLP任务中应用高性能的RNN模型(比如长短期记忆单元),还将认识神经机器翻译,并实现一个神经机器翻译器。
售 价:¥
纸质售价:¥71.50购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
译者序
前言
关于作者
关于审阅者
第1章 自然语言处理简介
1.1 什么是自然语言处理
1.2 自然语言处理的任务
1.3 传统的自然语言处理方法
1.4 自然语言处理的深度学习方法
1.5 本章之外的学习路线
1.6 技术工具简介
1.7 总结
第2章 理解TensorFlow
2.1 TensorFlow是什么
2.2 输入、变量、输出和操作
2.3 使用作用域重用变量
2.4 实现我们的第一个神经网络
2.5 总结
第3章 Word2vec——学习词嵌入
3.1 单词的表示或含义是什么
3.2 学习单词表示的经典方法
3.3 Word2vec——基于神经网络学习单词表示
3.4 skip-gram算法
3.5 连续词袋算法
3.6 总结
第4章 高级Word2vec
4.1 原始skip-gram算法
4.2 比较skip-gram算法和CBOW算法
4.3 词嵌入算法的扩展
4.4 最近的skip-gram和CBOW的扩展算法
4.5 GloVe:全局向量表示
4.6 使用Word2vec进行文档分类
4.7 总结
第5章 用卷积神经网络进行句子分类
5.1 介绍卷积神经网络
5.2 理解卷积神经网络
5.3 练习:在MNIST数据集上用CNN进行图片分类
5.4 用CNN进行句子分类
5.5 总结
第6章 递归神经网络
6.1 理解递归神经网络
6.2 基于时间的反向传播
6.3 RNN的应用
6.4 用RNN产生文本
6.5 评估RNN的文本结果输出
6.6 困惑度:衡量文本结果的质量
6.7 有上下文特征的递归神经网络:更长记忆的RNN
6.8 总结
第7章 长短期记忆网络
7.1 理解长短期记忆网络
7.2 LSTM如何解决梯度消失问题
7.3 其他LSTM的变体
7.4 总结
第8章 LSTM应用:文本生成
8.1 数据集
8.2 实现LSTM
8.3 LSTM与窥孔LSTM和GRU对比
8.4 改进LSTM:集束搜索
8.5 LSTM改进:用单词替代n-gram生成文本
8.6 使用TensorFlow RNN API
8.7 总结
第9章 LSTM应用:图像标题生成
9.1 了解数据
9.2 图像标题生成实现路径
9.3 使用CNN提取图像特征
9.4 实现:使用VGG-16加载权重和推理
9.5 学习词嵌入
9.6 准备输入LSTM的标题
9.7 生成LSTM的数据
9.8 定义LSTM
9.9 定量评估结果
9.10 为测试图像生成标题
9.11 使用TensorFlow RNN API和预训练的GloVe词向量
9.12 总结
第10章 序列到序列学习:神经机器翻译
10.1 机器翻译
10.2 机器翻译简史
10.3 理解神经机器翻译
10.4 为NMT系统准备数据
10.5 训练NMT
10.6 NMT推理
10.7 BLEU评分:评估机器翻译系统
10.8 从头开始实现NMT:德语到英语的翻译
10.9 结合词嵌入训练NMT
10.10 改进NMT
10.11 注意力
10.12 序列到序列模型的其他应用:聊天机器人
10.13 总结
第11章 自然语言处理的现状与未来
11.1 NLP现状
11.2 其他领域的渗透
11.3 走向通用人工智能
11.4 社交媒体NLP
11.5 涌现的新任务
11.6 新兴的机器学习模型
11.7 总结
11.8 参考文献
附录 数学基础与高级TensorFlow
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜