万本电子书0元读

万本电子书0元读

顶部广告

TensorFlow与自然语言处理应用电子书

正是NLP在我们日常生活中呈现出越来越多的便利性,笔者才更想对NLP背后的模型原理和具体应用行深的探讨,以便我们对NLP有更多的认知。另外,笔者查看了近些年来的相关文献,发现单独讲解NLP方面的理论文献国内外都有,单独撰写NLP任务实现的技术工具(如TensorFlow)的图书也很多,而将二者结合起来的图书,目前在国内还没有发现(也许有,只是笔者没有发现而已)。于是,2018年4月,笔者就想对关于利用TensorFlow技术框架来实现NLP任务应用方面行成体系地探索,以便对今后的工作有所积累。本书在创作过程中参考了《Natural Language Processing with TensorFlow》(Thushan Ganegedara著)中的一些内容,在此向Thushan Ganegedara表达个人的敬意!

售       价:¥

纸质售价:¥61.40购买纸书

71人正在读 | 0人评论 6.2

作       者:李孟全

出  版  社:清华大学出版社

出版时间:2019-08-01

字       数:32.1万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:此类商品不支持退换货,不支持下载打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
自然语言处理(NLP)是计算机科学、人工智能、语言学关注计算机和人类(自然)语言之间的相互作用的领域。自然语言处理是机器学习的应用之一,用于分析、理解和生成自然语言,它与人机交互有关,*终实现人与计算机之间更好的交流。 本书分为12章,内容包括自然语言处理基础、深度学习基础、TensorFlow、词嵌(Word Embedding)、卷积神经网络(CNN)与句子分类、循环神经网络(RNN)、长短期记忆(LSTM)、利用LSTM实现图像字幕自动生成、情感分析、机器翻译及智能问答系统。 本书适合TensorFlow自然语言处理技术的初学者、NLP应用发人员、NLP研究人员,也适合高等院校和培训学校相关专业的师生教学参考。 自然语言处理(NLP)是计算机科学、人工智能、语言学关注计算机和人类(自然)语言之间的相互作用的领域。自然语言处理是机器学习的应用之一,用于分析、理解和生成自然语言,它与人机交互有关,*终实现人与计算机之间更好的交流。 本书分为12章,内容包括自然语言处理基础、深度学习基础、TensorFlow、词嵌(Word Embedding)、卷积神经网络(CNN)与句子分类、循环神经网络(RNN)、长短期记忆(LSTM)、利用LSTM实现图像字幕自动生成、情感分析、机器翻译及智能问答系统。 本书适合TensorFlow自然语言处理技术的初学者、NLP应用发人员、NLP研究人员,也适合高等院校和培训学校相关专业的师生教学参考。
【推荐语】
正是NLP在我们日常生活中呈现出越来越多的便利性,笔者才更想对NLP背后的模型原理和具体应用行深的探讨,以便我们对NLP有更多的认知。另外,笔者查看了近些年来的相关文献,发现单独讲解NLP方面的理论文献国内外都有,单独撰写NLP任务实现的技术工具(如TensorFlow)的图书也很多,而将二者结合起来的图书,目前在国内还没有发现(也许有,只是笔者没有发现而已)。于是,2018年4月,笔者就想对关于利用TensorFlow技术框架来实现NLP任务应用方面行成体系地探索,以便对今后的工作有所积累。本书在创作过程中参考了《Natural Language Processing with TensorFlow》(Thushan Ganegedara著)中的一些内容,在此向Thushan Ganegedara表达个人的敬意! 通过阅读本书,你将学会如何利用深度学习来实现许多有意义的NLP任务。对于本书中涉及的NLP任务,我们都有具体的代码实现(含实现过程),使用的技术框架为TensorFlow(1.8版本),编程语言为Python(3.6版本)。
【作者】
李孟全,中国社会科学院研究生院硕士。十多年IT从业经历,先后从事过程序员、项目负责人、部门负责人等岗位。长期关注人工智能领域,在机器学习、深度学习和NLP领域有一定的积累。
目录展开

内容简介

前言

第1章 自然语言处理基础

1.1 认识自然语言处理

1.2 自然语言处理方面的任务

1.3 第一阶段:偏理论的理性主义

1.4 第二阶段:偏实践应用的经验主义

1.5 第三阶段:深度学习阶段

1.6 NLP中深度学习的局限性

1.7 NLP的应用场景

1.8 NLP的发展前景

1.9 总结

第2章 深度学习基础

2.1 深度学习介绍

2.2 深度学习演变简述

2.3 神经网络介绍

2.4 神经网络的基本结构

2.5 两层神经网络(多层感知器)

2.6 多层神经网络(深度学习)

2.7 编码器-解码器网络

2.8 随机梯度下降

2.9 反向传播

2.10 总结

第3章 TensorFlow

3.1 TensorFlow概念解读

3.2 TensorFlow主要特征

3.3 TensorFlow安装

3.4 TensorFlow计算图

3.5 TensorFlow张量和模型会话

3.6 TensorFlow工作原理

3.7 通过一个示例来认识TensorFlow

3.8 TensorFlow客户端

3.9 TensorFlow中常见元素解读

3.10 变量作用域机制

3.11 实现一个神经网络

3.12 总结

第4章 词嵌入

4.1 分布式表示

4.2 Word2vec模型(以Skip-Gram为例)

4.3 原始Skip-Gram模型和改进Skip-Gram模型对比分析

4.4 CBOW模型

4.5 Skip-Gram和CBOW对比

4.6 词嵌入算法的扩展

4.7 结构化Skip-Gram和连续窗口模型

4.8 GloVe模型

4.9 使用Word2Vec进行文档分类

4.10 总结

第5章 卷积神经网络与句子分类

5.1 认识卷积神经网络

5.2 输入层

5.3 卷积运算层

5.4 激活函数

5.5 池化层

5.6 全连接层

5.7 整合各层并使用反向传播进行训练

5.8 常见经典卷积神经网络

5.9 利用CNN对MNIST数据集进行图片分类

5.10 利用CNN进行句子分类

5.11 总结

第6章 循环神经网络

6.1 计算图及其展开

6.2 RNN解读

6.3 通过时间的反向传播算法

6.4 RNN的应用类型

6.5 利用RNN生成文本

6.6 输出新生成的文本片段

6.7 评估RNN的文本结果输出

6.8 困惑度——文本生成结果质量的度量

6.9 具有上下文特征的循环神经网络——RNN-CF

6.10 使用RNN-CF生成的文本

6.11 总结

第7章 长短期记忆

7.1 LSTM简述

7.2 LSTM工作原理详解

7.3 LSTM与标准RNN的区别

7.4 LSTM如何避免梯度消失和梯度爆炸问题

7.5 优化LSTM

7.6 LSTM的其他变体

7.7 总结

第8章 利用LSTM自动生成文本

8.1 文本到文本的生成

8.2 意义到文本的生成

8.3 数据到文本的生成

8.4 文本自动生成前的数据准备

8.5 实现LSTM

8.6 标准LSTM与带有窥视孔连接和GRU的LSTM的比较

8.7 优化LSTM——集束搜索

8.8 改进LSTM——使用词而不是n-gram生成文本

8.9 使用TensorFlow RNN API

8.10 总结

第9章 利用LSTM实现图像字幕自动生成

9.1 简要介绍

9.2 发展背景

9.3 利用深度学习框架从图像中生成字幕

9.4 评估指标和基准

9.5 近期研究

9.6 图像字幕的产业布局

9.7 详解图像字幕自动生成任务

9.8 总结

第10章 情感分析

10.1 认识情感分析

10.2 情感分析的问题

10.3 情感文档分类

10.4 句子主观性与情感分类

10.5 基于方面(Aspect)的情感分析

10.6 情感词典生成

10.7 意见摘要

10.8 比较观点分析

10.9 意见搜索

10.10 垃圾评论检测

10.11 评论的质量

10.12 利用TensorFlow进行中文情感分析实现

10.13 总结

第11章 机器翻译

11.1 机器翻译简介

11.2 基于规则的翻译

11.3 统计机器翻译

11.4 神经网络机器翻译

11.5 神经网络机器翻译(NMT)系统的前期准备工作

11.6 BLEU评分——评估机器翻译系统

11.7 完整实现神经网络机器翻译——德语到英语翻译

11.8 结合词向量训练神经网络机器翻译系统

11.9 优化神经网络机器翻译系统

11.10 实现注意力机制

11.11 可视化源语句和目标语句的注意力

11.12 历史性突破——BERT模型

11.13 总结

第12章 智能问答系统

12.1 概要

12.2 基于知识库的问答

12.3 机器理解中的深度学习

12.4 利用TensorFlow实现问答任务

12.5 总结

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部