万本电子书0元读

万本电子书0元读

顶部广告

自然语言处理:基于预训练模型的方法电子书

暂无

售       价:¥

纸质售价:¥79.10购买纸书

234人正在读 | 0人评论 6.2

作       者:车万翔,郭江,等

出  版  社:电子工业出版社

出版时间:2021-07-01

字       数:17.4万

所属分类: 科技 > 计算机/网络 > 多媒体/数据通信

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
自然语言处理被誉为“人工智能皇冠上的明珠”。深度学习等技术的引为自然语言处理技术带来了一场革命,尤其是近年来出现的基于预训练模型的方法,已成为研究自然语言处理的新范式。本书在介绍自然语言处理、深度学习等基本概念的基础上,重介绍新的基于预训练模型的自然语言处理技术。本书包括基础知识、预训练词向量和预训练模型三大部分:基础知识部分介绍自然语言处理和深度学习的基础知识和基本工具;预训练词向量部分介绍静态词向量和动态词向量的预训练方法及应用;预训练模型部分介绍几种典型的预训练语言模型及应用,以及预训练模型的展。除了理论知识,本书还有针对性地结合具体案例提供相应的PyTorch 代码实现,不仅能让读者对理论有更深刻的理解,还能快速地实现自然语言处理模型,达到理论和实践的统一。本书既适合具有一定机器学习基础的高等院校学生、研究机构的研究者,以及希望深研究自然语言处理算法的计算机工程师阅读,也适合对人工智能、深度学习和自然语言处理感兴趣的学生和希望人工智能应用领域的研究者参考。<br/>【作者】<br/>车万翔博士,哈尔滨工业大学计算机学院教授,博士生导师,*青年长江学者,黑龙江省“龙江学者”青年学者,斯坦福大学访问学者。现任中国中文信息学会计算语言学专业委员会委员、青年工作委员会副主任;中国计算机学会高级会员、曾任YOCSEF哈尔滨主席(2016-2017年度)。在ACL、EMNLP、AAAI、IJCAI等国内外高水平期刊和会议上发表学术论文50余篇,其中AAAI 2013年的文章获得了论文提名奖,论文累计被引用3,000余次(Google Scholar数据),H-index值为29。出版教材 2 部,译著 2 部。目前承担国家自然科学基金、973等多项科研项目。负责研发的语言技术平台(LTP)已被600余家单位共享,提供的在线“语言云”服务已有用户1万余人,并授权给百度、腾讯、华为等公司使用。2018、2019连续两年获CoNLL国际评测第1名。2015、2016连续两年获Google Focused Research Award(谷歌专注研究奖);2016年,获黑龙江省科技步一等奖(排名第2);2012年,获黑龙江省技术发明奖二等奖(排名第2);2010年获中国中文信息学会“钱伟长”中文信息处理科学技术奖一等奖(排名第2)、首届汉王青年创新奖(个人)等多项奖励。2017年,所主讲的MOOC课程《高级语言程序设计(Python)》获国家精品在线放课程。郭江麻省理工学院计算机科学与人工智能实验室,博士后研究员。毕业于哈尔滨工业大学社会计算与信息检索研究中心,约翰斯?霍普金斯大学联合培养博士,研究方向为自然语言处理与机器学习。在人工智能、自然语言处理领域国际重要会议及期刊(如ACL、EMNLP、AAAI等)发表论文20余篇。是被业界广泛应用的中文语言技术平台LTP的主要研发者之一。2015年,获百度奖学金;2018年,获中文信息学会“优秀博士学位论文”提名奖。崔一鸣科大讯飞AI研究院资深级研究员、研究主管。本科与硕士毕业于哈尔滨工业大学计算机科学与技术专业并继续攻读博士学位。长期从事阅读理解、问答系统、机器翻译、自然语言处理等相关领域的研究工作。曾以主要研究人员身份参加了国际口语机器翻译评测(IWSLT),NIST OpenMT国际机器翻译评测获得多项冠军。多次获得国际权威机器阅读理解评测冠军,其中包括斯坦福SQuAD挑战赛冠军、国际语义评测SemEval 2018阅读理解任务冠军、对话型阅读理解挑战赛CoQA、QuAC冠军、多步推理阅读理解挑战赛HotpotQA冠军。同时在自然语言处理国际会议ACL、EMNLP、AAAI、IJCAI等上发表十余篇学术论文,申请发明专利十余项,并担任国际会议程序委员会委员,担任国际ESI期刊审稿人等学术职务。<br/>
目录展开

内容简介

推荐序

推荐语

前言

数学符号

第1章 绪论

1.1 自然语言处理的概念

1.2 自然语言处理的难点

1.2.1 抽象性

1.2.2 组合性

1.2.3 歧义性

1.2.4 进化性

1.2.5 非规范性

1.2.6 主观性

1.2.7 知识性

1.2.8 难移植性

1.3 自然语言处理任务体系

1.3.1 任务层级

1.3.2 任务类别

1.3.3 研究对象与层次

1.4 自然语言处理技术发展历史

第2章 自然语言处理基础

2.1 文本的表示

2.1.1 词的独热表示

2.1.2 词的分布式表示

2.1.3 词嵌入表示

2.1.4 文本的词袋表示

2.2 自然语言处理任务

2.2.1 语言模型

2.2.2 自然语言处理基础任务

2.2.3 自然语言处理应用任务

2.3 基本问题

2.3.1 文本分类问题

2.3.2 结构预测问题

2.3.3 序列到序列问题

2.4 评价指标

2.5 小结

第3章 基础工具集与常用数据集

3.1 NLTK工具集

3.1.1 常用语料库和词典资源

3.1.2 常用自然语言处理工具集

3.2 LTP工具集

3.2.1 中文分词

3.2.2 其他中文自然语言处理功能

3.3 PyTorch基础

3.3.1 张量的基本概念

3.3.2 张量的基本运算

3.3.3 自动微分

3.3.4 调整张量形状

3.3.5 广播机制

3.3.6 索引与切片

3.3.7 降维与升维

3.4 大规模预训练数据

3.4.1 维基百科数据

3.4.2 原始数据的获取

3.4.3 语料处理方法

3.4.4 Common Crawl数据

3.5 更多数据集

3.6 小结

第4章 自然语言处理中的神经网络基础

4.1 多层感知器模型

4.1.1 感知器

4.1.2 线性回归

4.1.3 Logistic回归

4.1.4 Softmax回归

4.1.5 多层感知器

4.1.6 模型实现

4.2 卷积神经网络

4.2.1 模型结构

4.2.2 模型实现

4.3 循环神经网络

4.3.1 模型结构

4.3.2 长短时记忆网络

4.3.3 模型实现

4.3.4 基于循环神经网络的序列到序列模型

4.4 注意力模型

4.4.1 注意力机制

4.4.2 自注意力模型

4.4.3 Transformer

4.4.4 基于Transformer的序列到序列模型

4.4.5 Transformer模型的优缺点

4.4.6 模型实现

4.5 神经网络模型的训练

4.5.1 损失函数

4.5.2 梯度下降

4.6 情感分类实战

4.6.1 词表映射

4.6.2 词向量层

4.6.3 融入词向量层的多层感知器

4.6.4 数据处理

4.6.5 多层感知器模型的训练与测试

4.6.6 基于卷积神经网络的情感分类

4.6.7 基于循环神经网络的情感分类

4.6.8 基于Transformer的情感分类

4.7 词性标注实战

4.7.1 基于前馈神经网络的词性标注

4.7.2 基于循环神经网络的词性标注

4.7.3 基于Transformer的词性标注

4.8 小结

第5章 静态词向量预训练模型

5.1 神经网络语言模型

5.1.1 概述

5.1.2 预训练任务

5.1.3 模型实现

5.2 Word2vec词向量

5.2.1 概述

5.2.2 负采样

5.2.3 模型实现

5.3 GloVe词向量

5.3.1 概述

5.3.2 预训练任务

5.3.3 参数估计

5.3.4 模型实现

5.4 评价与应用

5.4.1 词义相关性

5.4.2 类比性

5.4.3 应用

5.5 小结

第6章 动态词向量预训练模型

6.1 词向量——从静态到动态

6.2 基于语言模型的动态词向量预训练

6.2.1 双向语言模型

6.2.2 ELMo词向量

6.2.3 模型实现

6.2.4 应用与评价

6.3 小结

第7章 预训练语言模型

7.1 概述

7.1.1 大数据

7.1.2 大模型

7.1.3 大算力

7.2 GPT

7.2.1 无监督预训练

7.2.2 有监督下游任务精调

7.2.3 适配不同的下游任务

7.3 BERT

7.3.1 整体结构

7.3.2 输入表示

7.3.3 基本预训练任务

7.3.4 更多预训练任务

7.3.5 模型对比

7.4 预训练语言模型的应用

7.4.1 概述

7.4.2 单句文本分类

7.4.3 句对文本分类

7.4.4 阅读理解

7.4.5 序列标注

7.5 深入理解BERT

7.5.1 概述

7.5.2 自注意力可视化分析

7.5.3 探针实验

7.6 小结

第8章 预训练语言模型进阶

8.1 模型优化

8.1.1 XLNet

8.1.2 RoBERTa

8.1.3 ALBERT

8.1.4 ELECTRA

8.1.5 MacBERT

8.1.6 模型对比

8.2 长文本处理

8.2.1 概述

8.2.2 Transformer-XL

8.2.3 Reformer

8.2.4 Longformer

8.2.5 BigBird

8.2.6 模型对比

8.3 模型蒸馏与压缩

8.3.1 概述

8.3.2 DistilBERT

8.3.3 TinyBERT

8.3.4 MobileBERT

8.3.5 TextBrewer

8.4 生成模型

8.4.1 BART

8.4.2 UniLM

8.4.3 T5

8.4.4 GPT-3

8.4.5 可控文本生成

8.5 小结

第9章 多模态融合的预训练模型

9.1 多语言融合

9.1.1 多语言BERT

9.1.2 跨语言预训练语言模型

9.1.3 多语言预训练语言模型的应用

9.2 多媒体融合

9.2.1 VideoBERT

9.2.2 VL-BERT

9.2.3 DALL·E

9.2.4 ALIGN

9.3 异构知识融合

9.3.1 融入知识的预训练

9.3.2 多任务学习

9.4 更多模态的预训练模型

9.5 小结

参考文献

术语表

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部