万本电子书0元读

万本电子书0元读

顶部广告

TensorFlow自然语言处理电子书

深度学习应用所使用的大部分数据是由自然语言处理(NLP)提供的,而TensorFlow是目前比较重要的深度学习框架。面对当今巨量数据流中众多的非结构化数据,本书详细讲解如何将TensorFlow与NLP二者结合以提供有效的工具,以及如何将这些工具应用于具体的NLP任务。 本书首先介绍NLP和TensorFlow的基础知识,之后讲解如何使用Word2vec及其高级扩展,以便通过创建词嵌将词序列转换为深度学习算法可用的向量。本书还介绍如何通过卷积神经网络(CNN)和递归神经网络(RNN)等经典深度学习算法执行句子分类和语言生成等重要的NLP任务。你将学习如何在NLP任务中应用高性能的RNN模型(比如长短期记忆单元),还将认识神经机器翻译,并实现一个神经机器翻译器。

售       价:¥

纸质售价:¥69.30购买纸书

14人正在读 | 0人评论 6.5

作       者:(澳)图珊·加内格达拉(Thushan Ganegedara)

出  版  社:机械工业出版社

出版时间:2019-06-01

字       数:18.8万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书首先介绍NLP和TensorFlow基础知识,然后介绍如何使用Word2vec(包括高级扩展)创建单词嵌,将单词序列转换为可由深度学习算法访问的向量。关于经典深度学习算法的章节,如卷积神经网络(CNN)和递归神经网络(RNN),展示了句子分类和语言生成等重要的NLP任务。此外还介绍如何将高性能的RNN模型,如长短期记忆(long short memory, LSTM)单元应用于NLP任务,你还将探索神经机器翻译并实现一个神经机器翻译器。<br/>【推荐语】<br/>深度学习应用所使用的大部分数据是由自然语言处理(NLP)提供的,而TensorFlow是目前比较重要的深度学习框架。面对当今巨量数据流中众多的非结构化数据,本书详细讲解如何将TensorFlow与NLP二者结合以提供有效的工具,以及如何将这些工具应用于具体的NLP任务。 本书首先介绍NLP和TensorFlow的基础知识,之后讲解如何使用Word2vec及其高级扩展,以便通过创建词嵌将词序列转换为深度学习算法可用的向量。本书还介绍如何通过卷积神经网络(CNN)和递归神经网络(RNN)等经典深度学习算法执行句子分类和语言生成等重要的NLP任务。你将学习如何在NLP任务中应用高性能的RNN模型(比如长期短期记忆单元),还将认识神经机器翻译,并实现一个神经机器翻译器。 通过阅读本书,你将学到: NLP的核心概念和各种自然语言处理方法 使用TensorFlow函数创建神经网络以完成NLP任务 将海量数据处理成可用于深度学习应用的单词表示 使用CNN和RNN执行句子分类和语言生成 使用*先的RNN(如长期短期记忆)执行复杂的文本生成任务 从头始编写一个真正的神经机器翻译器 未来的NLP趋势和创新<br/>【作者】<br/>图珊·加内格达拉(Thushan Ganegedara)目前是澳大利亚悉尼大学第三年的博士生。他专注于机器学习,喜欢深度学习。他喜欢危险,在未经测试的数据上运行算法。他还是澳大利亚初创公司AssessThreat的首席数据科学家。他在斯里兰卡莫拉图瓦大学获得了理学士学位。他经常撰写有关机器学习的技术文章和教程。此外,他还在日常生活中游泳来努力营造健康的生活方式。<br/>
目录展开

译者序

前言

关于作者

关于审阅者

第1章 自然语言处理简介

1.1 什么是自然语言处理

1.2 自然语言处理的任务

1.3 传统的自然语言处理方法

1.4 自然语言处理的深度学习方法

1.5 本章之外的学习路线

1.6 技术工具简介

1.7 总结

第2章 理解TensorFlow

2.1 TensorFlow是什么

2.2 输入、变量、输出和操作

2.3 使用作用域重用变量

2.4 实现我们的第一个神经网络

2.5 总结

第3章 Word2vec——学习词嵌入

3.1 单词的表示或含义是什么

3.2 学习单词表示的经典方法

3.3 Word2vec——基于神经网络学习单词表示

3.4 skip-gram算法

3.5 连续词袋算法

3.6 总结

第4章 高级Word2vec

4.1 原始skip-gram算法

4.2 比较skip-gram算法和CBOW算法

4.3 词嵌入算法的扩展

4.4 最近的skip-gram和CBOW的扩展算法

4.5 GloVe:全局向量表示

4.6 使用Word2vec进行文档分类

4.7 总结

第5章 用卷积神经网络进行句子分类

5.1 介绍卷积神经网络

5.2 理解卷积神经网络

5.3 练习:在MNIST数据集上用CNN进行图片分类

5.4 用CNN进行句子分类

5.5 总结

第6章 递归神经网络

6.1 理解递归神经网络

6.2 基于时间的反向传播

6.3 RNN的应用

6.4 用RNN产生文本

6.5 评估RNN的文本结果输出

6.6 困惑度:衡量文本结果的质量

6.7 有上下文特征的递归神经网络:更长记忆的RNN

6.8 总结

第7章 长短期记忆网络

7.1 理解长短期记忆网络

7.2 LSTM如何解决梯度消失问题

7.3 其他LSTM的变体

7.4 总结

第8章 LSTM应用:文本生成

8.1 数据集

8.2 实现LSTM

8.3 LSTM与窥孔LSTM和GRU对比

8.4 改进LSTM:集束搜索

8.5 LSTM改进:用单词替代n-gram生成文本

8.6 使用TensorFlow RNN API

8.7 总结

第9章 LSTM应用:图像标题生成

9.1 了解数据

9.2 图像标题生成实现路径

9.3 使用CNN提取图像特征

9.4 实现:使用VGG-16加载权重和推理

9.5 学习词嵌入

9.6 准备输入LSTM的标题

9.7 生成LSTM的数据

9.8 定义LSTM

9.9 定量评估结果

9.10 为测试图像生成标题

9.11 使用TensorFlow RNN API和预训练的GloVe词向量

9.12 总结

第10章 序列到序列学习:神经机器翻译

10.1 机器翻译

10.2 机器翻译简史

10.3 理解神经机器翻译

10.4 为NMT系统准备数据

10.5 训练NMT

10.6 NMT推理

10.7 BLEU评分:评估机器翻译系统

10.8 从头开始实现NMT:德语到英语的翻译

10.9 结合词嵌入训练NMT

10.10 改进NMT

10.11 注意力

10.12 序列到序列模型的其他应用:聊天机器人

10.13 总结

第11章 自然语言处理的现状与未来

11.1 NLP现状

11.2 其他领域的渗透

11.3 走向通用人工智能

11.4 社交媒体NLP

11.5 涌现的新任务

11.6 新兴的机器学习模型

11.7 总结

11.8 参考文献

附录 数学基础与高级TensorFlow

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部