万本电子书0元读

万本电子书0元读

顶部广告

自然语言处理——原理、方法与应用电子书

● 深浅出  在系统阐述理论的同时,深浅出地结合前沿论文、代码实践及合适的应用场景,为读者提供通俗易懂的自然语言处理任务的环境和案例。 ● 衔连贯  采用同一套代码框架贯穿全书,强调知识体系的全面性和可拓展性,注重理论与实践的前后连贯性。 ● 技术前沿  介绍自然语言处理的起源与发展、文本分类、机器阅读理解、命名实体识别、文本生成、模型蒸馏与剪枝等前沿技术,激发读者学习兴趣,拓读者视野。

售       价:¥

纸质售价:¥46.60购买纸书

74人正在读 | 0人评论 6.4

作       者:王志立,雷鹏斌,吴宇凡

出  版  社:清华大学出版社

出版时间:2023-03-01

字       数:10.7万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书系统阐述自然语言处理基础知识,以及自然语言处理高级模型应用等高级知识。 全书共11章:第1~5章为自然语言处理的基础知识,第6~11章则将自然语言处理知识应用于实战。书中主要内容包括预训练模型、文本分类、机器阅读理解、命名实体识别、文本生成、模型蒸馏与剪枝及损失函数等知识。 书中包含大量应用示例,不仅可以学会理论知识还可以灵活应用。书中示例基于Linux与PyTorch环境发,读者在学习自然语言处理知识的同时还可学会PyTorch框架技术,内容完整、步骤清晰,提供了工程化的解决方案。 本书可作为有一定深度学习基础的读者的门书,也可作为从事自然语言处理算法工作的技术人员及培训机构的参考书。<br/>【推荐语】<br/>● 深浅出  在系统阐述理论的同时,深浅出地结合前沿论文、代码实践及合适的应用场景,为读者提供通俗易懂的自然语言处理任务的环境和案例。 ● 衔连贯  采用同一套代码框架贯穿全书,强调知识体系的全面性和可拓展性,注重理论与实践的前后连贯性。 ● 技术前沿  介绍自然语言处理的起源与发展、文本分类、机器阅读理解、命名实体识别、文本生成、模型蒸馏与剪枝等前沿技术,激发读者学习兴趣,拓读者视野。<br/>【作者】<br/>王志立,自然语言处理工程师,曾在国际与国内的学术会议上发表学术论文多篇,先后在腾讯等多家知名企业从事大数据与人工智能算法工作,运营和分享人工智能相关知识,曾获得多项人工智能比赛奖项。 雷鹏斌,深圳大学硕士,华为AI算法工程师,主要从事chatops、知识图谱的研究与应用工作,对自然语言处理各项任务的研究与应用具有经验丰富。2019—2021年在国内知名竞赛的文本分类、命名实体识别、机器阅读理解、智能问答,以及文本生成任务中摘获大量荣誉。曾参与多项课题研究,在AAAI、中文信息学报等高影响力会议上发表多篇文章。 吴宇凡,腾讯算法应用研究员,长期从事业务安全和金融量化相关算法研究和实践,已发表国际会议论文多篇,申请专利数篇。<br/>
目录展开

版权页

作者简介

内容简介

前言

目录

第1章 导论

1.1 基于深度学习的自然语言处理

1.2 本书章节脉络

1.3 自然语言处理算法流程

1.4 小结

第2章 Python开发环境配置

2.1 Linux服务器

2.1.1 MobaXterm

2.1.2 使用MobaXterm连接远程服务器

2.1.3 在服务器上安装Python开发环境

2.1.4 使用Anaconda国内源

2.1.5 pip设定永久阿里云源

2.2 Python虚拟环境

2.3 PyCharm远程连接服务器

2.4 screen任务管理

2.5 Docker技术

2.6 小结

第3章 自然语言处理的发展进程

3.1 人工规则与自然语言处理

3.2 机器学习与自热语言处理

3.2.1 词袋模型

3.2.2 n-gram

3.2.3 频率与逆文档频率

3.3 深度学习与自然语言处理

3.4 小结

第4章 无监督学习的原理与应用

4.1 浅层无监督预训练模型

4.2 深层无监督预训练模型

4.2.1 BERT

4.2.2 Self-Attention Layer原理

4.2.3 Self-Attention Layer的内部运算逻辑

4.2.4 Multi-Head Self-Attention

4.2.5 Layer Normalization

4.2.6 BERT预训练

4.2.7 BERT的微调过程

4.3 其他预训练模型

4.3.1 RoBERTa

4.3.2 ERNIE

4.3.3 BERT_WWM

4.3.4 ALBERT

4.3.5 Electra

4.3.6 NEZHA

4.3.7 NLP预训练模型对比

4.4 自然语言处理四大下游任务

4.4.1 句子对分类任务

4.4.2 单句子分类任务

4.4.3 问答任务

4.4.4 单句子标注任务

4.5 小结

第5章 无监督学习进阶

5.1 生成式对抗网络

5.2 元学习

5.2.1 Metric-Based Method

5.2.2 Model-Based Method

5.2.3 Pretrain-Based Method

5.3 小结

第6章 预训练

6.1 赛题任务

6.2 环境搭建

6.3 代码框架

6.4 数据分析实践

6.4.1 数据预处理

6.4.2 预训练任务模型构建与数据生成

6.4.3 模型训练

6.5 小结

第7章 文本分类

7.1 数据分析

7.2 环境搭建

7.3 代码框架

7.4 文本分类实践

7.4.1 数据预处理

7.4.2 模型构建

7.4.3 数据迭代器

7.4.4 模型训练

7.4.5 模型预测

7.5 小结

第8章 机器阅读理解

8.1 机器阅读理解的定义

8.1.1 完形填空

8.1.2 多项选择

8.1.3 片段抽取

8.1.4 自由回答

8.1.5 其他任务

8.2 评测方法

8.3 研究方法

8.3.1 基于规则的方法

8.3.2 基于神经网络的方法

8.3.3 基于深层语义的图匹配方法

8.4 经典结构

8.4.1 BiDAF模型

8.4.2 QANet模型

8.4.3 基于BERT模型的机器阅读理解

8.5 多文档机器阅读理解实践

8.5.1 疫情政务问答助手

8.5.2 信息检索

8.5.3 多任务学习

8.5.4 实践

8.6 小结

第9章 命名实体识别

9.1 NER技术的发展现状

9.2 命名实体识别的定义

9.3 命名实体识别模型

9.3.1 预训练模型

9.3.2 下接结构

9.3.3 条件随机场

9.4 命名实体识别实验

9.4.1 数据介绍

9.4.2 评估指标

9.4.3 数据预处理

9.4.4 模型构建

9.4.5 数据迭代器

9.4.6 模型训练

9.4.7 模型预测

9.5 小结

第10章 文本生成

10.1 文本生成的发展现状

10.1.1 文本生成模板

10.1.2 变分自编码器

10.1.3 序列到序列技术

10.2 基于预训练模型的文本生成模型

10.3 文本生成任务实践

10.3.1 数据介绍

10.3.2 评估指标

10.3.3 模型构建

10.3.4 数据迭代器

10.3.5 模型训练

10.3.6 模型预测

10.4 小结

第11章 损失函数与模型瘦身

11.1 损失函数

11.2 常用的损失函数

11.2.1 回归

11.2.2 分类

11.3 损失函数的进阶

11.3.1 样本不均衡

11.3.2 Focal Loss

11.3.3 Dice Loss

11.3.4 拒识

11.3.5 带噪学习

11.4 模型瘦身

11.4.1 知识蒸馏

11.4.2 模型剪枝

11.5 小结

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部