适读人群: NLP相关领域的师生; 工作中应用NLP领域技术的人; 算转型NLP的人。 (1)作者涂铭是数据架构师和人工智能技术专家,先后就职于阿里和腾讯,在NLP和聊天机器人方面积累了大量经验。 (2)作者杜振东是国家标准委人工智能技术专家和AIIA(中国人工智能产业发展联盟)技术专家,在会话式AI方面有多年积累,项目经验丰富。 (3)不仅详解了NLP和人机交互核心技术,从技术、算法、实战3个维度讲解聊天机器人原理、实现与工程实践。
售 价:¥
纸质售价:¥59.20购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
前言
第1章 人机交互导论
1.1 图灵测试
1.1.1 图灵测试相关背景
1.1.2 图灵测试的定义
1.1.3 图灵测试引发的思考
1.2 专家系统
1.2.1 专家系统的定义
1.2.2 专家系统的框架
1.2.3 专家系统的发展
1.3 人机交互
1.3.1 人机交互简介
1.3.2 人机交互模块的发展
1.3.3 自然语言理解
1.3.4 对话管理
1.3.5 自然语言生成
1.4 机器人形态
1.4.1 聊天机器人
1.4.2 任务型机器人
1.4.3 面向FAQ的问答机器人
1.4.4 面向KB的问答机器人
1.5 本章小结
第2章 人机对话前置技术
2.1 深度学习框架
2.1.1 Theano
2.1.2 TensorFlow
2.1.3 Keras
2.1.4 PyTorch
2.2 搭建NLP开发环境
2.2.1 下载和安装Anaconda
2.2.2 conda的使用
2.2.3 中文分词工具——Jieba
2.2.4 PyTorch的下载与安装
2.2.5 Jupyter Notebook远程访问
2.3 TorchText的安装与介绍
2.4 本章小结
第3章 中文分词技术
3.1 分词的概念和分类
3.2 规则分词
3.2.1 正向最大匹配
3.2.2 逆向最大匹配
3.2.3 双向最大匹配
3.3 统计分词
3.4 混合分词
3.5 Jieba分词
3.6 准确率评测
3.6.1 混淆矩阵
3.6.2 中文分词中的P、R、F1计算
3.7 本章小结
第4章 数据预处理
4.1 数据集介绍
4.2 数据预处理
4.3 TorchText预处理
4.3.1 torchtext.data
4.3.2 torchtext.datasets
4.3.3 构建词表
4.3.4 构建迭代器
4.4 本章小结
第5章 词向量实战
5.1 词向量的由来
5.1.1 one-hot模型
5.1.2 神经网络词向量模型
5.2 word2vec
5.2.1 初探word2vec
5.2.2 深入CBOW模型
5.2.3 Skip-gram模型介绍
5.2.4 word2vec模型本质
5.3 glove
5.3.1 初探glove
5.3.2 glove模型原理
5.4 word2vec实战
5.4.1 预处理模块
5.4.2 模型框架
5.4.3 模型训练
5.4.4 模型评估
5.5 glove实战
5.5.1 预处理模块
5.5.2 模型框架
5.5.3 模型训练
5.5.4 模型评估
5.6 本章小结
第6章 序列标注与中文NER实战
6.1 序列标注任务
6.1.1 任务定义及标签体系
6.1.2 任务特点及对比
6.1.3 任务应用场景
6.2 序列标注的技术方案
6.2.1 隐马尔可夫模型
6.2.2 条件随机场
6.2.3 循环神经网络
6.2.4 Bert
6.3 序列标注实战
6.3.1 中文NER数据集
6.3.2 数据预处理
6.3.3 模型训练框架
6.3.4 模型评估
6.4 BiLSTM
6.4.1 参数介绍
6.4.2 BiLSTM模型框架
6.4.3 模型效果评估
6.5 BiLSTM-CRF
6.5.1 参数介绍
6.5.2 BiLSTM-CRF模型框架
6.5.3 模型评价
6.6 本章小结
第7章 文本分类技术
7.1 TFIDF与朴素贝叶斯
7.1.1 TFIDF
7.1.2 朴素贝叶斯
7.1.3 实战案例之新闻分类
7.2 TextCNN
7.2.1 TextCNN网络结构解析
7.2.2 实战案例之新闻分类
7.3 FastText
7.3.1 模型架构
7.3.2 层次softmax
7.3.3 n-gram子词特征
7.3.4 安装与实例解析
7.4 后台运行
7.5 本章小结
第8章 循环神经网络
8.1 RNN
8.1.1 序列数据
8.1.2 神经网络需要记忆
8.1.3 RNN基本概念
8.1.4 RNN的输入输出类型
8.1.5 双向循环神经网络
8.1.6 深层循环神经网络
8.1.7 RNN的问题
8.1.8 RNN PyTorch实现
8.2 LSTM
8.2.1 LSTM网络结构解析
8.2.2 LSTM PyTorch实现
8.3 GRU
8.3.1 GRU网络结构解析
8.3.2 GRU PyTorch实现
8.4 TextRNN
8.4.1 基本概念
8.4.2 实战案例之新闻分类
8.5 TextRCNN
8.5.1 基本概念
8.5.2 实战案例之新闻分类
8.6 实战案例之诗歌生成
8.6.1 数据预处理
8.6.2 模型结构
8.6.3 模型训练
8.6.4 诗歌生成
8.7 本章小结
第9章 语言模型与对话生成
9.1 自然语言生成介绍
9.2 序列生成模型
9.2.1 seq2seq的基本框架
9.2.2 Encoder-Decoder框架的缺点
9.3 经典的seq2seq框架
9.3.1 基于RNN的seq2seq
9.3.2 基于CNN的seq2seq
9.4 Attention机制
9.4.1 序列模型RNN
9.4.2 Attention机制的原理
9.4.3 Self-Attention模型
9.4.4 Transfomer模型介绍
9.5 Bert——自然语言处理的新范式
9.5.1 Bert结构
9.5.2 预训练任务
9.6 聊天机器人实战
9.6.1 数据介绍和数据预处理
9.6.2 实现seq2seq模型
9.7 本章小结
第10章 知识图谱问答
10.1 知识图谱概述
10.2 关系抽取
10.3 人物间关系识别
10.3.1 任务分析
10.3.2 模型设计
10.3.3 代码实现及优化
10.4 图谱构建
10.4.1 Neo4J简介
10.4.2 Neo4J创建图谱示例
10.5 基于深度学习的知识图谱问答模块
10.5.1 数据构造
10.5.2 查询目标检测
10.5.3 查询条件抽取
10.5.4 基于知识图谱查询模块实现
10.6 本章小结
第11章 自然语言推理
11.1 自然语言推理介绍
11.2 自然语言推理常见模型
11.2.1 SIAMESE网络
11.2.2 BiMPM网络
11.2.3 Bert网络
11.3 多轮对话中的答案导向问题
11.4 答案导向问题的实战
11.4.1 数据构造
11.4.2 孪生网络实战
11.4.3 BiMPM网络实战
11.4.4 Bert网络实战
11.4.5 模型结果比较
11.5 本章小结
第12章 实体语义理解
12.1 实体语义理解简介
12.2 现有语义理解系统分析
12.2.1 Time-NLPY/Time-NLP/FNLP
12.2.2 HeidelTime
12.2.3 知识驱动方法与数据驱动方法
12.3 实体语义理解的技术方案
12.4 实体语义理解实战
12.5 数值解析实战
12.6 时间解析实战
12.6.1 时间信息的中间表示
12.6.2 时长解析
12.6.3 日期和时间点
12.6.4 时间段
12.6.5 时间信息的推理计算
12.7 本章小结
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜